L’opacità dell’IA mette in crisi i paradigmi della Scienza

Il dibattito sull’intelligenza artificiale: come renderla sicura e protetta

I primi calcolatori sono stati costruiti mentre era ancora in corso la seconda guerra mondiale, i vagiti delle reti neurali risalgono agli anni Quaranta del secolo scorso e i personal computer hanno cominciato a diffondersi negli anni Ottanta: perché dunque tanto clamore intorno agli ultimi sviluppi dell’intelligenza artificiale (IA)? Le opportunità offerte dalla “nuova” IA sono molte e promettenti ma i rischi e le incertezze non ancora chiari e in gran parte dipendenti dalla domanda: come possiamo fidarci di qualcosa che non conosciamo bene?

La ragione dei recenti successi dell’IA sta nel fatto che solo da pochi anni si sono potuti mettere insieme i tre pilastri che la sostengono: velocità di calcolo, reti neurali e, soprattutto, disponibilità di grandi insiemi di dati; il motto è: “la vita comincia a un miliardo di esempi”. Nel 2009 un gruppo di ricercatori di Google pubblicò L’irragionevole efficacia dei dati, un documento in cui si dichiarava esplicitamente l’inutilità di elaborare teorie essendo sufficiente la quantità dei dati. Ma i big data si sono resi disponibili solo dopo che gli utenti del web li hanno per anni inconsapevolmente depositati nei server delle aziende proprietarie dei social network e dei motori di ricerca. Questo ha permesso l’applicazione generale dell’intuizione che aveva guidato di V. Vapnik nelle ricerche sull’elaborazione automatica del linguaggio: “predire quale parola seguirà un’altra è più facile che capirla”.

Prima di affrontare il tema dei rischi, il documento preparatorio (1) al vertice internazionale sulla sicurezza dell’intelligenza artificiale (Bletchley Park 1-3 novembre 2023) cita esempi delle capacità in sviluppo nell’IA generativa “di frontiera”: è in grado di conversare fluentemente, scrivere sequenze di codice, ottenere punteggi elevati agli esami di laurea, generare articoli di cronaca plausibili, combinare in modo creativo idee diverse, spiegare le battute di spirito, tradurre, governare robot, analizzare dati, ragionare secondo il buon senso, risolvere problemi matematici, riassumere documenti. I lavori del summit si sono conclusi con la dichiarazione che di fronte “a uno dei più grandi balzi tecnologici nella storia dell’umanità […] è evidente l’imperativo di garantire che questa tecnologia in rapida evoluzione rimanga sicura e protetta“(2).

La prima domanda che le abilità in elenco sollevano è relativa alla definizione stessa di intelligenza che evidentemente non può più usare quella che J. McCarthy chiamava “obiezione sleale” per la quale ogni volta che l’IA funziona non la chiamiamo più intelligenza. Se conveniamo di definire intelligente un comportamento in grado di raggiungere uno scopo allora diventa cruciale capire come l’IA raggiunge gli scopi assegnati perché il punto è che, almeno al momento, non lo sappiamo. Solo en passant la Dichiarazione di Bletchley osserva che le capacità manifestate dall’IA “non sono pienamente comprese e sono quindi difficili da prevedere”.

L’importanza della questione dell’opacità dell’IA (Y. LeCun ha ammesso che l’apprendimento non supervisionato è la materia oscura dell’IA) non risiede solo nel mero fatto che liste di miliardi di operazioni e di parametri con cui l’IA svolge in tempi rapidissimi i suoi compiti non sono padroneggiabili dalla mente umana: se per un verso questo permette all’IA, per esempio, di progettare rapidamente robot (3) o, come avviene con Alpha Fold (4), la struttura di proteine che altrimenti avrebbero impegnato intere generazioni di ricercatori umani, tuttavia pone anche un’interessante questione sul significato stesso del conoscere. Infatti per alcuni autori la questione dell’opacità non rappresenta un problema ma anzi ci solleva dalla fatica di elaborare teorie (5). Il che significa però che ci risparmia anche la fatica di capire, e non solo l’IA ma il mondo stesso. Fine delle annose e controverse questioni relative al metodo scientifico. Dall’essere un problema l’opacità dell’IA diventa modello per un nuovo paradigma scientifico che fa a meno della comprensione e decreta la fine delle teorie.

Per la verità la situazione descritta non sarebbe inedita e si è anzi più volte verificata nella storia della scienza e della tecnica. Il funzionamento delle macchine a vapore costruite nella prima rivoluzione industriale fu pienamente compreso solo successivamente con le teorie della termodinamica e della meccanica statistica; gli aeroplani hanno cominciato a volare prima della formulazione dell’aerodinamica; la meccanica quantistica funziona ma non si può dire che sia pienamente compresa. La storia della scienza non dipende solo dalla disponibilità di regole esplicite (ed è precisamente di esse che la nuova IA fa a meno). Se anche questo è il caso dell’IA è presto per dirlo. È comunque inedito che ci si spinga a teorizzare il valore dell’assenza della comprensione e la fine della necessità di cercarla anche post factum: “non c’è bisogno di capire i dati” (C. Anderson). È inedito cioè che si pensi di estendere l’intuizione di Vapnik dall’IA all’intelligenza umana.

Il problema della comprensione è in relazione a quello dell’informazione contenuta nei dati. Un ritornello nelle discussioni sull’IA è che le informazioni vengono estratte dai dati: l’idea è che i dati già contengano informazioni. Ma i dati non hanno significato di per sé. Devono essere interpretati. Come nel racconto di P. Levi La misura della bellezza, in cui il fantastico calometro “ravvisa un volto umano anche nelle sue imitazioni più grossolane e casuali”, l’IA vede le forme che dovrebbe vedere dove invece non dovrebbe (sovradattamento) o non le vede dove invece dovrebbe (esempi avversari). La stessa mente umana, ad esempio, è vittima della predisposizione a vedere forme familiari (pareidolia e apofenia) in forme casuali.

L’indice di Pearson, r, è usato in statistica per stimare il grado con cui due variabili sono correlate e varia da 0, nessuna correlazione, a 1, massima correlazione. Due eventi con alto indice di Pearson possono indurre a credere erroneamente che esista tra loro una correlazione. I dati grezzi possono dare origine a interpretazioni fasulle, spesso con effetti comici. T. Vigen (6) ne ha raccolti alcuni: per esempio il valore di r fra l’età di Miss America e il numero di decessi per ustioni da vapori, è pari a 0,87. Oltre che comici gli effetti potrebbero essere pericolosi: sulla scorta della correlazione spuria dell’esempio, un’IA potrebbe decidere di incriminare le Miss America di una certa età. I dati grezzi possono dare origine a interpretazioni fasulle e i bias delle correlazioni spurie sono ben noti e studiati nella psicologia cognitiva.

Capire se una correlazione è autentica o spuria richiede la comprensione dei fenomeni coinvolti come riconoscere quando è presente una relazione di causa-effetto, quali sono gli aspetti pertinenti e rilevanti e il contesto in cui si manifestano, insomma occorre un’intelligenza generale (alcuni però ne ravvisano le prime “scintille” nella nuova IA). Nessun sistema può essere addestrato per affrontare ogni nuovo caso possibile sulla base di quelli già osservati (problema della coda lunga). È vero che per correggerne il tasso di errore l’IA viene sottoposta a ulteriori cicli di addestramento con nuovi set di dati, ma il problema resta perché a decidere cosa sia errore e cosa non lo sia è sempre la supervisione umana.

——————————-

1) Capabilities and risks from frontier AI. A discussion paper on the need for further research into AI risk https://assets.publishing.service.gov.uk/media/65395abae6c968000daa9b25/frontier-ai-capabilities-risks-report.pdf

2) (https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023)

3) “Proceedings of the National Academy of Sciences”, 3 oct. 2023, https://www.pnas.org/doi/10.1073/pnas.2305180120

4) J.L. Watson et al., De novo design of protein structure and function with RFdiffusion, in “Nature”. https://www.nature.com/articles/s41586-023-06415-8

5) C. Anderson, The End of Theory. The Data Deluge Makes the Scientific Method Obsolete, in www.wired.com/science/discoveries/magazine/16-07/pb_theory. Y. Lecun, The Epistemology Of Deep Learning, video.ias.edu/DeepLearningConf/2019-0222-YannLeCun

6) T. Vigen, Spurious Correlations, New York, Hachette Books. 2015https://www.tylervigen.com/spurious-correlations

Total
0
Condivisioni
Prec.
Penultimatum degli schleiniani: Gazza tocca a te! O saran primarie e stridor di denti

Penultimatum degli schleiniani: Gazza tocca a te! O saran primarie e stridor di denti

L'area Schlein pone una specie di ultimatum gentile a quelli del patto

Succ.
BTO 2023: il viaggio al tempo dell’Intelligenza Artificiale

BTO 2023: il viaggio al tempo dell’Intelligenza Artificiale

il 22 e 23 novembre con oltre 100 eventi con i maggiori esperti del settore

You May Also Like
Total
0
Condividi