Nucleare e IA: un binomio che ha bisogno di regole non di divieti

Possibile stabilire un limite non inteso come freno ma come soglia

Il nucleare torna al centro del dibattito pubblico per le minacce politiche di un conflitto nucleare paventato dal presidente russo Vladimir Putin che mette in allerta il mondo intero. Ma a ben vedere ad oggi le grandi potenze sono impegnate in una corsa alla militarizzazione dell’intelligenza artificiale (IA). Vladimir Putin ha affermato che chi diventerà leader nel campo dell’IA sarà il padrone del mondo.

Per quanto riguarda le armi nucleari, l’IA può essere utilizzata con lo scopo di migliorare il rilevamento precoce (early warning) di missili armati con testate nucleari[1].  Ma a fronte di vantaggi relativi alla velocizzazione e perfezionamento del rilevamento precoce, è necessario evidenziare i nuovi rischi che emergono utilizzando l’IA per l’early warning nucleare. Il prof. Guglielmo Tamburrini ne classifica 4:

  1. Il sistema di IA potrebbe non svolgere adeguatamente un compito, perché per l’addestramento ha bisogno di molti dati che potrebbero non essere disponibili.
  2. Il sistema di IA può commettere errori a cominciare dalla possibilità che un sistema dell’IA segnali un falso allarme di attacco nucleare.
  3. L’uomo potrebbe avere difficoltà ad interpretare l’IA.
  4. L’attuale IA non è solo fragile, è facile da ingannare. L’avvelenamento dei dati potrebbe manipolare i dati di addestramento che alimentano il sistema di IA, o sistemi senza equipaggio o emettitori potrebbero essere usati per ingannare un’IA a credere che un attacco nucleare sia in arrivo. È possibile ingannare l’IA deliberatamente o meno. Accidentali o deliberate manipolazioni della scena percettiva (sistematicamente studiate nell’ambito della cosiddetta IA antagonista, adversarial AI o adversarial machine learning) potrebbero essere sfruttate per indurre dei sistemi di early warning basati sull’IA a commettere errori di classificazione.

Un recente articolo del Bulletin of the Atomic Scientists porta il titolo eloquente “Se l’intelligenza artificiale controllasse le armi nucleari potremmo essere tutti morti!”. Il titolo si giustifica in virtù della possibilità di revoca che è solo umana.

Un sistema dell’IA può commettere errori sorprendenti e controintuitivi, che un operatore umano evita senza problema alcuno. Ma come? L’intelligenza artificiale non serve proprio ad evitare l’errore umano? E ora stiamo sostenendo che la macchina compie errori che l’umano è capace di evitare?

Se, infatti, l’uomo è capace di ravvedimento e di riflessione critica, l’automatismo della macchina non consente ripensamenti. Per fare solo un noto esempio si ricorderà il celebre tenente colonnello Stanislav Petrov dell’esercito sovietico che durante la guerra fredda il 26 settembre 1983 scongiurò una guerra nucleare. Quel giorno, il sistema sovietico di early warning OKO segnalò un attacco nucleare sferrato con cinque missili in arrivo dagli Stati Uniti e diretti sul territorio sovietico. Nei pochi minuti a sua disposizione, Petrov si convinse che il responso di OKO era solo un falso positivo e perciò si astenne dal trasmettere la segnalazione di attacco ai suoi superiori. Come si appurò più tardi, OKO aveva scambiato degli inusuali riflessi di luce solare sulle nuvole per tracce dei motori di cinque missili. Commentando alcuni anni dopo l’episodio e i processi mentali che gli consentirono di sventare una guerra nucleare e di salvare l’umanità dalle sue conseguenze devastanti, Petrov osservò che “se si dà inizio una guerra, non lo si fa lanciando solo cinque missili”. Questo è un caso esemplare di ragionamento umano basato sul buon senso, su conoscenze di contesto che sono difficilmente accessibili a una macchina.

Il binomio Nucleare e IA, tuttavia, non va rapportato solo all’uso bellico per cui si è visto essere un binomio di distruzione, nel senso in sé della guerra, e dunque del suo uso e scopo militare, ma anche nel senso dell’imprecisione, dell’errore, dei rischi che porta con sé.

Oltre all’uso militare, non dobbiamo dimenticare i benefici che la produzione per uso civile di energia atomica offre all’umanità. L’energia nucleare è spesso associata a paura e diffidenza, specialmente per via dei rischi legati ad incidenti, come il drammatico caso di Chernobyl di circa trent’anni fa.

Ancora una volta il binomio IA e NUCLEARE è strettissimo:

  • Se il nucleare si può dire che alimenti l’IA: per addestrare e far funzionare le reti di deep learning si richiede una grande quantità di energia, anche nucleare.
  • L’IA favorisce i processi di fusione nucleare: ci sono recenti ricerche[2]  sull’uso degli algoritmi di IA applicati ai processi di fusione nucleare che dimostrano come tali algoritmi possano aiutare il progresso della ricerca attraverso predizioni, simulazioni al pc che riducono la portata – e dunque rischi e conseguenze – di esperimenti empirici, velocizzando e potenziando un processo, quale quello della fusione nucleare che ha diversi utilizzi.

E’ noto, infatti che la fusione nucleare è fonte di energia e rappresenterà sempre più uno dei pilastri dell’energia sostenibile e rinnovabile del futuro.

 Mi è sembrato pertanto opportuno insistere sulle due facce del binomio IA – nucleare come binomio di distruzione dei corpi, ma anche di cura dei corpi, dell’ambiente e dell’uomo.

L’interazione tra IA e NUCLEARE per la cura dell’uomo si evince in alcune branche specialistiche della medicina come la Diagnostica per Immagini, la Medicina Nucleare, la Radioterapia e la Fisica Medica.

La medicina nucleare è una branca specialistica della medicina che, grazie ai sistemi medico-nucleari (PET, SPECT, scintigrafia, tomografia), diagnostica e tratta le malattie utilizzando piccole quantità di radiofarmaci, ossia dei materiali radioattivi. Rispetto ad altri approcci, la medicina nucleare è molto più sensibile alle anomalie strutturali o funzionali di organi e tessuti: per questo, permette una diagnosi e un trattamento più precoci.

La medicina nucleare, inoltre, aiuta i medici a stabilire la gravità o la diffusione della malattia, di scegliere la terapia più adatta, di verificare l’efficacia di un farmaco, di adattare le terapie in base alle risposte ai trattamenti, di monitorare la progressione della malattia e di identificare eventuali recidive. La medicina nucleare, che ha indubbi vantaggi sulla salute della collettività, ha un inevitabile costo sociale: la produzione di scorie, che però possono essere smaltite regolarmente seguendo i protocolli relativi. Dunque da quanto detto sinora parrebbe che l’IA incrementi, renda esponenziali, i rischi già insiti nell’uso – così “scivoloso” – del nucleare.

Ma è l’IA allora a dover fare paura e che dovremmo arrestare, vietare, contenere prima di unirla nel binomio così potente con il nucleare?

Molto interessante è la posizione di Floridi che sostiene come l’Intelligenza artificiale sia una nuova forma di agire efficace, capace di affrontare problemi e compiti con successo in vista di uno scopo, ma che sia tutt’altro che intelligente[3]. “

Noi siamo e rimarremo, in qualsiasi prevedibile futuro, il problema, non la nostra tecnologia. Questo è il motivo per cui dovremmo accendere la luce nella stanza buia e guardare attentamente dove stiamo andando. Non ci sono mostri ma molti ostacoli da evitare, rimuovere o negoziare. Dovremmo preoccuparci della vera stupidità umana, non dell’intelligenza artificiale immaginaria, e concentrarci sulle sfide reali che l’IA solleva”[4].

lI binomio IA-nucleare riporta con ancora piu’ forza l’accento sull’imprevedibilita’ dei due elementi del binomio presi singolarmente: insieme è come se l’imprevedibilita’ aumentasse. Ma se l’incertezza e l’imprevedibilità è sempre più la cifra della scienza moderna qual è l’approccio più sensato?

Sheila Jasanoff, filosofa politica contemporanea ordinario di Scienza e Tecnologia presso l’Harvard Kennedy School of Government, ha di recente argomentato di incertezza in un volume dal titolo Uncertainty[5]. E ha distinto 3 atteggiamenti:

  1. CERCARE DI PREVEDERE e CONTROLLARE.
  2. CERCARE DI PREVENIRE con atteggiamento CAUTO, PRUDENTE che spinge all’inazione.
  3. ACCETTARE IL LIMITE DELL’IGNOTO e cercare di capire COME COMPORTARSI. Questo atteggiamento lei lo definisce di UMILTA’. Rispetto ai due principi lei propone l’UMILTA’ come pratica di ragionamento e politica che accetta l’incertezza come suo fondamento e la mitigazione del danno come suo obiettivo. Di tal che l’umiltà riprende la questione della precauzione, rifiutandone la passività.

Come si è visto durante il Covid-19, non si trattava di prepararsi al «noto ignoto», ovvero a un che di prevedibile, misurabile e controllabile, ma di «riflettere con umiltà sull’ignoto ignoto (ignoto non prevedibile), le sorprese in agguato oltre l’immaginazione delle menti meglio allenate che finiscono per colpire quelli meno in grado di difendersi»[6].

Secondo la Jasanoff andrebbe coltivata una mentalità sistematica che si occupa di tali pericoli, basata sull’umiltà come modello per un’azione collettiva più forte

Tale appello alla responsabilità individuale e collettiva, si rivolge agli scienziati e alla scienza che deve “pensare e ripensare se stessa, i paradigmi che la orientano e il proprio ruolo anche etico-politico. Soprattutto è sollecitata a diventare responsabilmente cittadina del mondo condiviso, reso, come non mai, comunità destinale dalla minaccia di distruzione atomica”. Coinvolti nell’appello alla responsabilità sono anche politica e diritto affinchè si stabiliscano regole e non divieti del binomio AI– nucleare e dunque all’incertezza e imprevedibilità della scienza e del futuro umano. Il prezzo del progresso non è il rischio. E’ possibile stabilire un limite non inteso come freno ma come soglia, che non spiega divieti draconiani, ma al più autorizzi moratorie[7], nel senso di richieste di tempo pensoso di riflessione e progressivi aggiustamenti.


[1] G. Tamburrini, Il Nucleare e la Militarizzazione dell’Intelligenza Artificiale, 13 ott 2022 https://sbilanciamoci.info/armi-nucleari-e-militarizzazione-dellintelligenza-artificiale/

[2] Dall’ MIT hanno usato algoritmi di machine learning, cioè di apprendimento automatico (intelligenza artificiale) per la fusione nucleare. I due ricercatori Pablo Rodrigo Fernandez e Nathan Award hanno utilizzato algoritmi di IA per effettuare delle predizioni sulla temperatura e sulla densità del plasma che viene utilizzato durante i processi di fusione nucleare.

[3] L. Floridi, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide. Raffaello Cortina, Milano 2022, P. 65

[4] Ivi, p. 276

[5] J. Cohen- D. Chasman (ed by), Uncertainty, Boston Review Forum 18, Cambridge 2021. Della Jasanoff si tenga conto anche dell’importante volume: S. Jananoff, Designs on Nature. Science and Democracy in Europe and the United States, Princeton University Press, Princeton 2005, tr. it Fabbriche della natura. Biotecnologie e democrazia, Il Saggiatore, Milano 2008.

[6] Id., “Humility in pandemic times”, J. Cohen- D. Chasman (ed by), Uncertainty, cit., pp. 25-26

[7] E. D’Antuono, Sotto il segno del nucleare, p. 215

Intervento che Alessia Maccaro – PhD (University of Naples Federico II), Research Fellow (WIRL COFUND – Marie Sklodowska Curie Actions) Institute of Advanced Study – University of Warwick (UK) – ha tenuto al Convegno Internazionale “Costruzione e Distruzione dei Corpi. Corsi e Ricorsi del Nucleare” organizzato dal Seminario Permanente Etica, Bioetuca, Cittadinanza dell’Università Federico II di Napoli il 18 e 19 aprile 2023

In foto al centro Alessia Maccaro

Total
0
Condivisioni
Prec.
“Arte per il sociale”, il mondo dipinto da Luchadora

“Arte per il sociale”, il mondo dipinto da Luchadora

luchadora

Succ.
Musica sacra, alla Cattedrale di Firenze appuntamento con Officium Florentinum

Musica sacra, alla Cattedrale di Firenze appuntamento con Officium Florentinum

musica sacra

You May Also Like
Total
0
Condividi