“L’ha scelto l’algoritmo”: errori e paradossi di un’autorità digitale

La frase di Paolo Gentiloni sulla spartizione del Recovery Fund

Una volta era in voga la frase: “Ce lo ha chiesto l’Europa”. E così i politici motivavano le scelte più impopolari. Adesso questo leit motiv è un po’ in calo ed è salito prepotentemente alla ribalta un altro tormentone giustificazionista: “E’ un algoritmo che sceglie”. E così ogni cosa – dai prezzi della polizza assicurativa al mutuo non concesso, all’assegnazione delle case popolari – esce dalla sfera delle decisioni umane ed entra nell’empireo della volontà automatizzata.

C’è cascato anche Paolo Gentiloni, che in qualità di Commissario alle questioni economiche dell’Unione Europeo, ha così esternato: «Le indicazioni dell’ammontare del Recovery Found per ogni Paese, sono state ricavate da un algoritmo che è stato tra l’altro ideato e definito da due direttori generali, entrambi olandesi. C’è un po’ di retorica italiana sul fatto che abbiamo conquistato un sacco di soldi. Non è vero».

Ora, è chiaro che la frase sta dentro il guazzabuglio della campagna elettorale e che, nel momento, Gentiloni pensava più a sminuire il ruolo dell’ex Premier Conte che non ad esaltare la funzione decisionista degli algoritmi programmati da due olandesi. Ma la dichiarazione – peraltro poi mezza rimangiata – non sta bene in bocca ad un Commissario europeo, in primo luogo, perché proprio l’Unione Europea è l’istituzione che più di tutte, in ogni suo atto, dal Gdpr (Regolamento generale sulla protezione dei dati) al recente Ai Act, tiene ad attribuire al governo dell’uomo ogni decisione, anche se maturata con il conforto dell’uso di algoritmi.

E poi perché quella frase pare suffragare un concetto di superiorità degli algoritmi in materia di neutralità e oggettività delle scelte, ormai superata. Ma da anni. Come ci ha insegnato Stefano Rodotà, eletto all’unanimità nel Duemila, presidente del Comitato Europeo dei Garanti della Privacy, che nel 1995 scriveva: “La tesi della neutralità della tecnologia, sicuramente importante per sottolineare la responsabilità di chi la adopera, trascura il fatto che il concreto ruolo di una tecnologia deriva anzitutto dalla sua forma e dalle sue specifiche modalità d’uso, che contribuiscono a definirne senso e portata sociale. Vi sono effetti che si producono per il solo fatto che si sceglie di ricorrere ad una determinata tecnologia”. (Tecnologie e diritti).

Ma c’è di più. Non sono mancate topiche incredibili quando si è assegnato agli algoritmi un ruolo dirimente. È successo al Governo italiano in un paio di occasioni. Una volta, proprio con Gentiloni ministro, quando si volle instaurare il cosiddetto ISA (Indice Sintetico di Affidabilità) per stabilire l’attendibilità delle dichiarazioni fiscali delle partite Iva. Secondo un Data Room di Milena Gabanelli sul Corriere della Sera, dal significativo titolo “L’algoritmo difettoso che fa pagare più tasse”, il 50% delle valutazioni non si rivelarono affidabili.

Ancora più clamoroso quanto avvenuto con il cosiddetto decreto “Buona scuola”, ai tempi del Governo Renzi. La benemerita azione di stabilizzazione di tanti docenti precari fu inficiata dai troppi trasferimenti senza senso degli insegnanti, stabiliti dai calcoli di un algoritmo: da Canicattì a Bressanone, da Courmayer a Licata, senza capire perché. Ai ricorsi di alcuni insegnanti dette ragione il Consiglio di Stato, che nella sentenza volle determinare un appiglio giuridico fondamentale nelle relazioni tra scelte di governo e determinazioni da machine learning: un algoritmo può far parte del processo amministrativo, ma a patto che sia soggetto all’intervento umano. E vennero indicati tre requisiti: a) la piena conoscibilità della modalità di funzionamento del sistema decisorio automatizzato; b) l’imputabilità della decisione da questo prodotta all’organo titolare del potere, cui competono tutte le responsabilità correlate; c) il carattere non discriminatorio dell’algoritmo utilizzato.

Già, perché può anche accadere che un algoritmo faccia delle discriminazioni. È successo in un caso approdato ad una sentenza del Tribunale di Bologna, contro l’azienda Deliveroo del dicembre 2020. La questione riguardava il ranking reputazionale dei dipendenti in relazione ai giorni di assenza dal lavoro. Si accertò che l’algoritmo declassava allo stesso modo, senza alcuna distinzione, sia chi si assentava per futili motivi, sia chi si asteneva dalla consegna per malattia o per esercitare il diritto di sciopero. La sentenza stabiliva anche che questo calcolo discriminatorio rispondeva alla scelta precisa dell’azienda di privilegiare la disponibilità del rider, senza considerare le ragioni del suo possibile mancato collegamento alla piattaforma di chiamata in servizio.

Gli esempi che dimostrano l’opacità degli algoritmi e la loro dipendenza da chi li programma in base a proprie convinzioni e classificazioni dei dati, sono ormai innumerevoli. Così come l’analisi degli studiosi del settore. Pedro Domingos, docente di Machine Learning all’Università di Washington, autore de “L’algoritmo definitivo”, scrive: “Gli algoritmi non sono intrinsecamente giusti ed etici – dice – sta a noi usarli in modo etico. Tutti dobbiamo comprendere cosa sono gli algoritmi e che cosa fanno, così da poterli controllare. Se lasciamo siano altri a controllare gli algoritmi che decidono al posto nostro non possiamo poi sorprenderci che quelle decisioni rechino benefici a loro, e non a noi”.

 Adriano Fabris, professore di Filosofia Morale all’Università di Pisa, già nel 2017 in un saggio su Avvenire, scriveva: “Le macchine non sono pienamente ‘autonome‘. La definizione degli algoritmi, secondo cui un programma fa funzionare la macchina, è qualcosa che può essere compiuto solo da un essere umano. C’è dunque una responsabilità umana, variamente articolata, che non può essere surrogata da procedure automatizzate”.

Tornando a Gentiloni, dunque, avvalorare il decisionismo dell’algoritmo in materia di attribuzione delle risorse del Recovery Found, tanto per corroborare una propria tesi politica del momento, è stato un po’ come gettare il pallone in calcio d’angolo al 95’ per perdere tempo. E poi prendere gol sul cross dalla bandierina.

In foto Paolo Gentiloni

Total
0
Condivisioni
Prec.
Muore Massimiliano Pescini, il cordoglio di Nardella

Muore Massimiliano Pescini, il cordoglio di Nardella

Bandiere a mezz'asta a Palazzo Medici Riccardi, sede della città metropolitana

Succ.
“La vita s’impara” di Augias: l’effetto subliminale della parola nazione

“La vita s’impara” di Augias: l’effetto subliminale della parola nazione

Un’intervista a proposito dell’uso di termini contenuti nella Costituzione

You May Also Like
Total
0
Condividi