Come funziona l’AI? Ma prima ancora, cos’è l’AI? E ancora, che rapporto c’è fra l’AI e i computer di ultima generazione? Ma soprattutto: può davvero l’umanità gestire e “programmare” secondo le sue esigenze, le nuove macchine? A dare risposta a queste domande di base circa l’avvento delle nuove macchine “intelligenti” è il professor Alessandro Mecocci, in un incontro organizzato dal coordinamento di associazioni raggruppato sotto il titolo Firenze Consapevole e dall’associazione Quanto Basta.
Alessandro Mecocci è docente ordinario di computer vision presso l’Università di Siena, è stato delegato nazionale a Bruxelles per il Ministero della Ricerca, ha collaborato con l’Osservatorio della Sicurezza Nazionale del Ministero della Difesa, ha curato i sistemi di controllo del traffico a livello nazionale per il ministero dei trasporti, ha progettato i sistemi di protezione dal vandalismo e di fruizione per svariate opere d’arte in musei, cattedrali, enti a livello nazionale ed internazionale, ha realizzato sistemi di sicurezza a medio raggio ambientali in collaborazione con ospedali, autostrade ecc, è titolare di 6 brevetti e co-fondatore di 7 start up.
Cercando di “aprire” la scatola magica dell’intelligenza artificiale, si inizia dal tema di ciò che è simbolico e ciò che è sub-simbolico. Una distinzione che “è il nocciolo di tante problematiche che si intrecciano fra di loro”.
Intanto, cos’è simbolico? L’umanità parla per simboli. “Se devo descrivere una mela – spiega Mecocci – comincio dicendo viene originata da un albero che è il melo, che ha un corpo a forma tonda, colore rosso, sapore acidulo, tutte parole che sono simboli che noi usiamo per capirci e trasferire la coscienza della mela. Tra gli umani comunichiamo la conoscenza per simboli. Qual è la conseguenza? Da quando è nata l’intelligenza artificiale, stiamo parlando degli anni ’60-’70, l’intelligenza in senso proprio era intesa come capacità di manipolare i simboli. Per cui il principio era: cerchiamo di costruire macchine in grado di manipolare questi simboli e alla fine otterremo macchine intelligenti. Il principio è stato ripreso negli anni ’70-’90, con i cosiddetti sistemi esperti, ma in conclusione non ha funzionato”. In altre parole, la via simbolica intrapresa si è rivelata inadeguata allo scopo.
Cosa non ha funzionato? Il tallone d’Achille si è rivelato proprio l’aspetto simbolico. “Quando l’umanità parla di simboli, si parla di un qualcosa che rimanda a un concetto. Il punto centrale è che tutto l’approccio simbolico, che rappresenta sostanzialmente tutta l’intelligenza artificiale fino al 2012, si è riflesso sulle nostre macchine“, ovvero gli strumenti tecnologici di uso comune, i calcolatori che usiamo abitualmente, a partire dai nostri cellulari e computer, macchine “strutturate a livello simbolico”. Ciò significa che in generale, per quanto siano complesse, “sono costituite da una memoria costituita da celle (di memoria) entro cui si trova un numero che è la codifica di un simbolo”. In altre parole, un numero rappresenta il rosso, un altro il verde, un altro ancora il concetto alto, basso, grosso, piccolo, e via di questo passo.
“Qual è il vantaggio del simbolo? – sottolinea il professore – che è interpretabile. Se dico rosso, comunico a tutti la stessa idea. Analogalmente, anche dentro il computer, c’è una memoria, anche questa costituita da celle, dove all’interno c’è un altro simbolo, che è il simbolo di un linguaggio di programmazione. Attraverso il linguaggio di programmazione, le persone riescono a far fare alla macchina esattamente quello che vogliono“. Il passaggio è fondamentale, perché attraverso la programmazione, con il linguaggio dei simboli, “è possibile che l’uomo specifichi alla macchina esattamente cosa vuole faccia, e farglielo eseguire, perché attualmente per programmare quella macchina utilizza dei simboli interpretabili; il programmatore sa leggere quei simboli e capire cosa la macchina fa.
“Fino ad ora avevamo delle macchine (e parlo anche dei cosiddetti super computer) che possono essere programmate da un programmatore in maniera tale che quello che il programmatore vuole che quella macchina faccia, venga eseguito esattamente. E se c’è un errore, il programmatore è in grado di vederlo (e correggerlo) , proprio perché il linguaggio è per simboli e quindi, interpretabile”. Ricapitolando, le macchine erano finora programmabili, spiegabili, e in questo senso, simboliche.
Un altro tipo di entità è il cervello. “Un litro e mezzo di materia grigia, 35-40 watt di consumo (bassissimo), dentro il cervello delle splendide cellule, che sono i neuroni. Qual è la cosa interessante del neurone cerebrale? Non è una cella di memoria. Mentre se vado dentro a un calcolatore trovo delle celle in cui trovo scritto un simbolo che comprendo, e se vado a consultare un libretto di istruzioni trovo altri simboli che capisco e con cui gli dico cosa fare e verifico che venga fatto perché capisco l’uscita, se guardo dentro il cervello la cella di memoria portatrice del simbolo, non c’è“.
“Esistono oggetti splendidi, i neuroni, che sono circa 100 miliardi, che fanno un calcolo semplicissimo: prendono in ingresso dei segnali, li sommano grossolanamente e poi li mandano in uscita verso altri neuroni. Dentro al neurone non c’è nulla: sommo, distorco, e mando via”. Le interconnessioni fra i neuroni sono dinamicamente create dalle nostre esperienze. “Qualsiasi azione, qualsiasi cosa si faccia, influenza fino a una certa età, poi rallenta ma comunque permane, l’interconnessione. Quindi, ogni cervello è unico; così come è unico il punto di vista di ciascuna persona con cui ci si relaziona”.
La conseguenza è che, al contrario dei calcolatori in cui l’interconnessione è fissata una volta per tutte e producono milioni di copie sempre identiche a se stesse, ogni cervello è completamente diverso da quello di un altro. Il punto centrale a questo punto è: se il neurone cerebrale non contiene simboli, come mai siamo produttori di simboli? “Cosa succede dentro al cervello se leggo un testo divertente? Una cosa semplice, diciamo che qualche centinaia di milioni di neuroni cominciano a mandarsi dei segnali l’uno verso l’altro. Un gruppo di questi neuroni che si attivano quando sento un testo divertente, sono anche quelli che si attivano quando leggo un testo divertente. Se poi vedo qualcosa di divertente, altre centinaia di milioni di neuroni si attivano”. Ma giunti a questo punto, la domanda è: e il simbolo? Il concetto stesso di divertente, nel cervello, dov’è?
“Dentro un calcolatore lo so, è nella cella, dentro, nel numero, ovvero nel simbolo che la cella contiene. Ma nel cervello ci sono solo queste attivazioni di centinaia di milioni di neuroni. Ed è per questo che si parla di sub-simbolismo. Il funzionamento cerebrale di base, non è simbolico, è prima del simbolo, è sotto il simbolo”. Se penso alla parola bello, non sta in un punto solo, in una cella, ma è diffusa, distribuita, all’interno delle comunicazioni fra i neuroni attivati. “Dunque, cosa significa sub-simbolico? Significa che se guardo nel cervello l’insieme di attivazioni che peraltro sono anche dinamiche, e cerco di dire qual è il concetto, non lo so fare, perché non c’è un posto, una cella di memoria in cui è contenuto un simbolo significante per tutti, vedo miriadi di attivazioni che cambiano nel tempo e non riesco a capire cosa vogliono dire”.
Il punto è importante per quanto riguarda l’intelligenza artificiale. “Nel 1943, arrivano sulla scena McCulloch e Pitts. Un neurofisiologo e un studioso di logica, guardano il cervello umano e iniziano a chiedersi: più o meno il neurone, come può essere modellizzato?”.
Ricordando che il modello è per definizione “caricaturale” ovvero rispetta il funzionamento di massima di un qualcosa ma non è identico a quel qualcosa, “il neurone artificiale non è qualcosa di fisicamente simile a u n neurone biologico, è un modello matematico che è stato definito più o meno così: ho dei segnali di ingresso, ho dei pesi, se il peso è maggiore di uno sto amplificando il segnale di ingresso, se è minore lo sto attenuando, prendo tutti i segnali, li sommo, ottengo un valore numerico e prima di mandarlo in uscita, il valore numerico viene distorto in maniera tale che rimanga sempre dentro un certo intervallo”.
Dunque, si tratta di un modello caricaturale di un neurone vero, in quanto simile come funzionamento a ciò che fa un neurone cerebrale (prende segnali di ingresso, li mescola, li somma e li manda in uscita distorcendoli) attraverso una simulazione matematica. Mettendo in relazione questi neuroni artificiali, si ottiene una rete neurale artificiale. “Si tratta di un’approssimazione, perché non è vero che il cervello umano funzioni così. E’ un modello: ci sono degli ingressi, dei pesi (che espandono o attenuano) un sommatore e una funzione che distorce, mantenendo all’interno di un certo intervallo l’uscita”.
“L’idea è che, se accanto a questi neuroni ne metto altri, ottengo uno strato di neuroni. Questi neuroni si vedono arrivare in ingresso, fanno le loro elaborazioni e producono uno strato d’uscita che posso collegare a un altro strato di neuroni e alla fine questo oggetto un po’ più complicato è una rete neurale artificiale fully connected, perché, guardando tutti i singoli neuroni, emerge che ogni singolo neurone è connesso a tutti i neuroni dello strato precedente e a tutti i neuroni dello strato in uscita“.
La più grossa rete neuronale attuale, che èChaptgtp4, ha 1768 miliardi di pesi. Per addestrarlo, supera la produzione di ossido di carbonio di tutta l’intera popolazione americana. Ma la vera domanda è: di una rete di quel tipo, che non ha simboli, chi è in grado di spiegare come funziona? E’ una rete che ha solo pesi e interconnessioni. Se vi immetto segnali, mi dà delle uscite. Ma quanto a spiegare “cosa” sta facendo? “Il problema è che non ci sono simboli. Il vero aspetto è che se metto dentro a questa rete dei segnali, ottengo in uscita qualcosa di utile. Ma non solo: sbalorditivo. Però c’è un bug originario: è inspiegabile”.
Conseguenza del fatto che l’attività non si basa su simboli comunicabili, è che non è trasparente il processo decisionale. Assolutamente opaco e inspiegabile, “si sa solo una cosa : che funziona bene – dice Mecocci – perché, nessuno lo sa”. In estrema sintesi: questa intelligenza artificiale fa delle cose utili per l’uomo, ma non si sa perché le fa.
Un secondo aspetto interessante, prosegue Mecocci, riguarda la conoscenza. Dove sta? “Mentre nel calcolatore sta nelle celle di memoria, nell’ambito cerebrale, al dove sta si risponde dicendo che è lì dentro, lì in mezzo, è dappertutto. Ogni neurone, ogni peso contribuisce al funzionamento complessivo dell’AI. L’altro aspetto terribile è che, poiché non sappiamo vedere i simboli, come si fa a mettere dentro i pesi giusti? Perché il problema è che se i pesi sono giusti, la rete dà uscite giuste, se sono sbagliati, la rete “sbaglia”.”.
Per capire di cosa si stia parlando, le reti fino al 2015, dunque reti “vecchie”, avevano 140-150 milioni di pesi. “Nessuno sa se si alza un peso quale altro bisogna abbassare – spiega Mecocci – non c’è nessuna persona o staff che possa programmare a mano i pesi giusti. Quindi, non sono programmabili”.
Tirando le fila la macchina “simbolica” può essere programmata, l’intelligenza artificiale no. Semmai, può essere riaddestrata, con però grosse alee sul risultato. “Con ChaptGtp3 siamo a 170 miliardi di pesi – continua il professore – nessun uomo o donna, nessuno staff può riuscire a intervenire. Queste reti non si programmano, queste reti apprendono da sole”.
Passo successivo, come si fa a far fare a queste reti ciò che vogliono gli umani? “Le reti apprendono dagli esempi. Se qualcuna di queste apprende da esempi sbagliati, va riaddestrata, affidandosi alla speranza che riaddestrandola con tanti esempi, apprenda ciò che vogliamo che apprenda”.
Un esempio che ben mette in luce la distorsione cui può portare il bug di cui si parlava, è l’uso di queste macchine ad esempio per decidere colpevoli o innocenti in sede giudiziale. Su che base si tiene il giudizio di innocenza o colpevolezza? Si può pensare che l’addestramento, in cui si sono stati fatti vedere numeri altissimi di casi, assicuri l’imparzialità del giudizio. Il problema, come è successo, è se magari sono stati fatti visionare più persone di colore rispetto a individui caucasici; la macchina potrebbe dare più facilmente giudizi positivi su persone caucasiche, penalizzando quelle di colore. Ciò dipende dagli esempi con cui è stato compiuto l’addestramento. La correttezza, il fairness, provengono dagli esempi, e gli esempi li dà l’umanità. In sintesi: le reti, l’intelligenza artificiale, in definitiva, queste macchine non si possono controllare direttamente. “il che pone notevoli problemi di preparazione dei dati di addestramento. Riassumendo: queste macchine sono opache, perché non essendo simboliche non si possono spiegare, hanno una conoscenza “distruibuita”, quindi non localizzata in celle di memoria che possiamo trovare, non sono programmabili. Perciò: non siamo in grado nè di intervenire direttamente, nè di correggerne il comportamento, dal momento che apprendono autonomamente”.
Ma se questa tecnologia è così potenzialmente rischiosa, per quale motivo si continua a portarla avanti? In buona sostanza, è l’utilità per le attività umane. La crescita delle abilità è rapidissima, dal riconoscimento degli oggetti, delle azioni, dei visi, la capacità di seguire il soggetto, individuare gli oggetti dimenticati, ecc. Uno dei problemi emergenti è sicuramente la capacità sempre più raffinata di costruire perfette fake news, ad esempio. Pericoli che tuttavia sono sempre più evidenti, tanto che stanno conducendo auna regolamentazione europea, ma anche alla particolare attenzione per le figure degli addestratori, oltre a uno sviluppo consapevole della ricerca.
In foto Alessandro Mecocci