Chi ha paura dell’intelligenza artificiale

Parla Armando Massarenti, giornalista e filosofo della scienza

“L’intelligenza artificiale sembra che abbia fatto il suo ingresso plateale nelle nostre vite con l’accelerazione di questi ultimi mesi, con il grande successo di ChatGp, ma è il frutto di innovazioni e di elaborazioni di saperi che vengono da molto lontano”. Secondo Armando Massarenti, epistemologo da sempre interessato ai temi etici, “è impossibile pensare a questo  intreccio di saperi trascurando i metodi che hanno fatto crescere e faranno crescere la scienza”.

Armando Massarenti, giornalista e filosofo della scienza, a lungo direttore del supplemento culturale Domenica del Sole 24 Ore, da una dozzina d’anni dirige la collana Scienza e filosofia per Mondadori Education nella quale ha pubblicato diversi volumi su temi cruciali – dalla storia della logica ai big data – che sono strumenti preziosi, premesse fondamentali, per comprendere il dibattito attuale sull’Intelligenza artificiale.

C’è stata negli ultimi mesi una enorme accelerazione nell’attenzione di massa su temi che paravano per specialisti.  Se già nel 2015 pubblicava il libro di Dominique Cardon Che cosa sognano gli algoritmi – titolo che riecheggia le sognanti pecore elettriche di Philip Dick e dunque gli scenari alla Blade runner – recentemente nella collana sono usciti Metaverso e gemelli digitali. La nuova alleanza tra reti naturali e artificiali di Silvano Tagliagambe e Human in the loop. Decisioni umane e intelligenze artificiali di Paolo Benanti, con una densa prefazione di Giuliano Amato.

Quest’ultimo, ex presidente del Consiglio e della Corte costituzionale, si è occupato di etica e intelligenza artificiale anche nell’ambito del Cortile dei gentili, da lui presieduto,  fondato dal Card. Gianfranco Ravasi. Ma l’intreccio dei saperi di cui parla Massarenti è presente nel libro che egli stesso ha scritto, in piena esplosione del Covid, insieme alla matematica e scienziata dei dati Antonietta Mira La pandemia dei dati. Ecco il vaccino. Dove il vaccino è il “pensiero critico”, un insieme aggiornato di competenze molte delle quali coincidono con quelle necessarie per orientarsi nel mondo del web e per comprendere i risvolti etici e cognitivi dell’Intelligenza artificiale dotandosi dei necessari anticorpi.

Qual è il difetto che intravede nell’approccio a questa nuova tecnologia che appare in grado di rivoluzionare non solo la ricerca scientifica ma anche, per la prima volta, anche le scienze umane…

“Non è mia intenzione prenderla troppo alla larga. Sono però convinto che ogni approccio ai problemi etici non può prescindere da una consapevolezza di come si è sviluppato il sapere dell’umanità, perlomeno negli ultimi ottant’anni, almeno da quando un genio come von Neumann, il padre dei computer, mentre si occupava di fisica nucleare e di molte altre cose, per così dire, con la mano sinistra fondava una nuova branca dell’economia, la teoria dei giochi, ai cui sviluppi sarebbero andati numerosi premi Nobel. Lo dico solo per sottolineare quanto vasti e variegati siano stati gli interessi dei protagonisti della scienza contemporanea, e della computer science in particolare. E, prima ancora, bisognerebbe risalire agli sviluppi della logica matematica di fine Ottocento, alla “crisi dei fondamenti” e alla rivoluzione che ne è seguita. E questo per risalire alla prima fase dell’Intelligenza artificiale, cui è seguita quella attuale, basata non più sull’emulazione della capacità logiche, ma sul machine learning e sul deep learning.  Se oggi i decisori pubblici brancolano nel buio, e il loro primo istinto, di fronte a un problema etico assai parziale, se non inesistente, è quello di bloccare tutto, è perché vi è un problema culturale di fondo, che riguarda soprattutto l’Italia.

Quali sono le cause di questo che appare un significativo ritardo culturale ma che si riflette sulla spinta all’innovazione…

Veniamo da svariati decenni durante i quali la classe dirigente non è stata opportunamente formata, anche se diversi atenei si stanno sforzando di correre ai ripari. Per esempio alcuni Politecnici si sforzano di uscire dalle secche della netta divisione tra le famose  “Due culture”, umanistica e scientifica,  aggiungendo all’acronimo Stem, cioè  Science, Technology, Engineering e Math,  la “a” di Arts, dove a mio parere queste arti devono riportaci a una versione opportunamente aggiornata delle arti liberali, cioè agli strumenti essenziali per la formazione di umanisti scienziati – e non di tecnocrati – e di cittadini dotati di pensiero critico e capaci di pensare con la propria testa.     

Uno dei difetti del nostro sistema educativo e universitario è ancora quello di dividere le discipline in compartimenti stagni, mentre l’innovazione nel mondo fa passi da gigante grazie alla commistione dei saperi.  Non è un caso che oggi, tra gli esperti di intelligenza artificiale, l’acronimo più in voga sia NIBC che indica la commistione di nanotecnologie, informazione digitale, biotecnologie, scienze cognitive. Il che rimanda al succitato von Neumann, cui aggiungerei un premio Nobel per l’economia come Herbert Simon, che era in realtà un grande innovatore nella psicologia cognitiva, nell’organizzazione aziendale, nella computer science e anche nell’Intelligenza artificiale, visto che cercò addirittura di costruire un programma per computer generatore di scoperte e rivoluzioni scientifiche, tra cui per esempio le leggi di Keplero. Fu un fallimento, ma molto istruttivo proprio per capire le differenze tra creatività e intelligenza umane e artificiali. Senza capire il senso di questo intreccio NIBC credo sia difficile avvicinarci ai temi complessi dell’etica relativi all’intelligenza artificiale, là dove questa pretende di entrare nei processi di trasformazione dell’informazione in conoscenza.

Eppure non si può dire che in questi decenni l’Italia non abbia cercato di stare al passo coi tempi, non crede? 

E’ vero. Spesso il nostro sistema ha cercato di adeguarsi, e le nostre università e centri di ricerca sono piene di persone competenti, aggiornate, produttive, anche geniali. Ma a livello di sistema si sono fatte operazioni piuttosto dubbie. Per esempio, quando si capì, una ventina di anni fa, che, per dirla con Richard Feynman, “c’è molto spazio laggiù in basso”, e cioè che le nanotecnologie erano un settore trainante, molte università hanno fatto delle mere operazioni di maquillage, ribattezzando “natotecnologie” cattedre e istituti tenuti da studiosi che non le avevano mai frequentate in precedenza. Qualcosa di simile è avvenuto recentemente con la scienza dei dati: onesti studiosi di statistica economica si sono improvvisati come esperti di big data ma senza aggiornare i propri strumenti. Gli studenti che vogliano studiare queste materie, perché giustamente hanno capito che saranno sempre più richieste, anche  in relazione agli sviluppi dell’Intelligenza artificiale, devono informarsi bene sulla qualità di quei corsi di laurea.  Rischiano delle solenni fregature. E ciò vale anche, con le dovute eccezioni, per la stessa Intelligenza artificiale. Persino le facoltà di informatica, cui i giovani si iscrivevano in massa all’inizio degli anni 80, sicuri di trovare lavoro, formavano magari dei provetti programmatori ignari però dei saperi necessari che avevano determinato e stavano determinando la rivoluzione digitale. Compresi i principi stessi della programmazione! In generale, si può dire che di tutte queste straordinarie innovazioni si tarda sempre a capire il valore culturale. La scienza fatica a essere considerata parte integrante della cultura.  Così si producono tecnici e tecnocrati da un lato, e pseudo umanisti odiatori della scienza dall’altro.                                            

Però non è stato soltanto il garante della privacy italiano ad aver bloccato ChatGpt, ma anche imprenditori che non sono stati certo frenati da dubbi e precauzioni nella loro ricerca dell’innovazione…

Sì, addirittura Elon Musk, insieme a più di mille protagonisti del variegato mondo dell’intelligenza artificiale, ha chiesto una moratoria di sei mesi sullo sviluppo di programmi e algoritmi. Dunque, non sembrerebbe un riflesso soltanto italiano. Ma io non credo che le due decisioni, californiana e italiana, vadano messe sullo stesso piano. Probabilmente l’appello della Silicon Valley ha semplicemente reso più spavalda la vis proibitoria del nostro garante della privacy, che, in perfetta buona fede, avrà fatto due più due: “se lo dice anche Musk!”. Ma è proprio l’appello di Musk & Co. a lasciare innanzitutto perplessi. A me pare il classico appello che si ammanta di eticità e di altisonante senso della responsabilità, ma che è generato da ragioni del tutto diverse e assai meno nobili. Ragioni di carattere concorrenziale, essendo rimasto spiazzato dall’uscita anticipata di CahtGpt, come hanno fatto notare i commentatori più avertiti, tra cui Paolo Benanti.     

Cosa pensa del documento dal titolo “Call for AI Ethics” che intende promuovere un approccio etico all’Intelligenza artificiale i cui contraenti sono la Pontificia Accademia per la Vita della Santa Sede, Microsoft, Ibm, Fao e Ministero dell’Innovazione?

Penso che sia un documento importante. Si insiste sul fatto che l’intelligenza artificiale debba essere al servizio dell’uomo, come sostiene appunto il francescano Paolo Benanti, che è egli stesso membro dell’Accademia. Mi pare che ci troviamo di fronte a un pensiero critico molto informato sui fatti, che reagisce in maniera assai riflessiva ai problemi a mano a mano che sorgono. Con spirito anche giocoso e non eccessivamente moralistico. Su LinkedIn Benanti ha fatto scrivere a ChatGPT una risposta all’appello del garante, da cui si evince che i programmatori avevano già tenuto conto di molti temi etici.   L’eticista Cinzia Caporale, alla Cortile di gentili ha insistito sul detto latino numquam nega raro adfirma distingue frequenter, cioè “non negare mai, afferma raramente, distingui frequentemente”. Alla luce di quanto è avvenuto mi pare ci abbia proprio azzeccato. 

Cosa fare dei dati che noi stessi forniamo ogni giorno alle grandi imprese digitali? Come affrontare il problema di una governance globale?

Non sono in grado di rispondere sulla governance globale, se non che certo c’è da preoccuparsi per l’uso che viene fatto dei dati che noi stessi immettiamo continuamente in rete, rendendoci profilabili e manipolabili. Nel libro che ho scritto con Antonietta Mira, La pandemia dei dati, cerco di fornire gli strumenti analitici e gli spunti di riflessione alla luce di fenomeni già ben studiati. Molte cose sono assai chiare almeno dal 2016, quando, dopo Brexit, elezioni americane e scandalo Cambridge analytica, l’Oxford dictionary elesse la PostVerità a parola dell’anno. Questi fenomeni della rete sono assai pericolosi perché risvegliano la natura tribale che alberga negli esseri umani a scapito dei valori fragili e reversibili della nostra civiltà su cui si fondano democrazia, stato di diritto, metodo scientifico.  

In conclusione lei teme davvero che l’Intelligenza artificiale possa mettere in soffitta non solo la creatività umana ma addirittura la stessa percezione della propria identità?

Non ho risposte assolute su nulla, sia chiaro, anche perché io non sono un esperto di IA, ma solo spunti di riflessione e un gran desiderio di approfondire.  Forse la percezione e permanenza della nostra identità è già ora abbastanza sopravvalutata, indipendentemente dall’Intelligenza artificiale. C’è un esperimento condotto dallo psicologo di Harvard Daniel Gilbert, grande studioso della felicità, che mostra che tendiamo a essere consapevoli di quanto noi e le nostre vite sono cambiate negli ultimi dieci anni, ma che, se ci si chiede se cambieremo anche nei prossimi dieci, tendiamo a rispondere che no, rimarremo più o meno come siamo ora.

Sopravvalutiamo il nostro io attuale e non sappiamo di essere molto più simili all’Uomo senza qualità di Musil di quanto crediamo. La maggior parte degli intervistati ha risposto in quel modo, indipendentemente dall’età, i ventenni come i sessantenni. Sottovalutiamo molto la dinamicità delle nostre vite.  Quanto alla creatività, app come ChatGpt non sembrano dare grandi problemi. Anche le risposte più sorprendenti sono improntate a una ragionevolezza di fondo che a volte rasenta la banalità. Quando la risposta ci appare geniale o molto creativa è perché l’intelligenza artificiale, navigando su immani quantità di dati, si sta avvalendo dell’intelligenza umana che ha trovato in rete – o dell’intelligenza delle nostre domande! – rielaborandola in modi che magari a noi non sarebbero venuti in mente.  Uno dei pericoli credo che derivi dal fatto che ciò ci rende la vita comoda. Saremo sempre meno propensi ad alimentare la rete con la nostra intelligenza, perché pigramente ci accontenteremo delle risposte che già ci sono. E il principe dei bias, il pregiudizio della conferma, trionferà ancora di più di quanto già fa con i motori di ricerca.

Può anche inquietare il fatto che, opportunamente interrogata, l’IA sembra mostrare segni di coscienza di sé. E’ una rivoluzione dagli aspetti enigmatici e inquietanti. Ma credo che la domanda più interessante riguardi ancora una volta l’assetto della scienza e il progredire delle conoscenze. Come ha osservato il fisico Pierluigi Contucci in un bel libro appena uscito da Dedalo e che raccomando (Rivoluzione intelligenza artificiale. Sfide, rischi  e opportunità), la prima rivoluzione industriale, quella del 700, era avvenuta senza che fossimo consapevoli della scienza che la sottendeva, finché i fisici non hanno elaborato i principi della termodinamica. Allo stesso modo, la rivoluzione in atto procederà nella relativa inconsapevolezza dei principi che la sottendono. Da questa opacità, che rende l’Intelligenza artificiale una sorta di scatola nera, derivano paure e inquietudini, ma anche l’entusiasmo e lo spirito di avventura necessari per affrontare e comprendere qualcosa di totalmente inedito e nuovo. Oltre che, val la pena sottolinearlo, immensamente utile.                   —

Total
0
Condivisioni
Prec.
Irpet: il commercio al dettaglio regge nonostante la pressione competitiva

Irpet: il commercio al dettaglio regge nonostante la pressione competitiva

Firenze – Il commercio in Toscana mostra ancora la grande forza della

Succ.
Tramvia, rispetto dei tempi, Vacs, tram sui binari entro la prossima primavera

Tramvia, rispetto dei tempi, Vacs, tram sui binari entro la prossima primavera

Firenze – Tramvie, oggi il punto è stato fatto dal sindaco, accompagnato

You May Also Like
Total
0
Condividi