Reggio Emilia – Nel corso dei millenni la produzione di armi si è basata sugli sviluppi della tecnica e della scienza. Semplificando un po’ possiamo dire che nell’antichità dominarono la metallurgia (spada, corazza) e la meccanica (arco, catapulta), dal Medioevo la siderurgia, poi la chimica (polvere da sparo), dall’inizio del Novecento armi più precise e letali grazie agli sviluppi della meccanica (mitragliatrice), la motorizzazione (carri armati), poi l’aviazione a elica; con la Prima Guerra mondiale la fisica giocò un ruolo sempre più rilavante (comunicazioni, sonar); con la Seconda l’elettromagnetismo (Radar) e la fisica nucleare (bomba atomica), e anche l’informatica (decifrazione dei codici). Il dopoguerra ha visto lo sviluppo abnorme delle armi nucleari, dell’aviazione a reazione e degli altri mezzi per trasportare le bombe sull’obiettivo (missili),e l’applicazione ampia dei mezzi di calcolo elettronico.
Negli ultimi tre decenni sono venuti affermandosi nuovi tipi di arma, grazie allo sviluppo e all’applicazione dell’informatica e dell’Intelligenza Artificiale (AI). Inizialmente veicoli aerei senza persone e bordo (Unmanned Aerial Vehicle, o UAV), in seguito sistemi di arma autonomi (Autonomous Weapon Systems, o AWS).
I primi hanno anche un’ampia diffusione anche al di fuori degli impieghi militari e sono noti anche come droni.
RQ-1 Predator della General Atomics, aeromobile a pilotaggio remoto
MQ-9 Reaper in volo nei cieli dell’Afghanistan
I droni possono essere controllati da operatori che sono in qualche modo in contatto con la macchina (Direct Operator Control), oppure possono essere controllati a distanza (Remotely Piloted Vehicles). Il loro sviluppo fu stimolato dall’impiego militare; il primo impiego di un UAV fu un Predator nell’Afghanistan, nell’ottobre 2001. Da allora gli Stati Uniti li hanno impiegati in altri conflitti: Pakistan, Yemen, Somalia, Libia; forse, ancor prima, in Iraq.
Ma Autonomos Land Vehicles (ALV) in grado di muoversi su terreni irregolari, di riconoscere stimoli esterni e di rispondere in modo appropriato furono sviluppati già nel 1984.
Dunque, mentre per millenni la guerra è stata combattuta interamente da persone o da veicoli direttamente controllati da persone, negli ultimi anni si è sviluppato un modo di combattere spersonalizzato; ciò pone anche problemi morali: si teme che così sia più facile ignorare le atrocità connesse alla guerra.
Nel 2012 si valutò che negli ultimi sette anni il numero di Stati che disponevano di UAV era salito da 40 a oltre 75. Tale proliferazione è dovuta anche al mercato commerciale; qualche anno fa esistevano già 900 compagnie per i sistemi aerei, 340 per quelli terrestri e marittimi; il potenziale economico dell’industria UAV è enorme; una previsione dà 100000 nuovi posti di lavoro.
A un livello superiore troviamo I sistemi d’arma autonomi (Autonomous Weapon Systems, o AWS). Questi sono programmati per identificare l’obiettivo e decidere autonomamente se fare fuoco e sono capaci di funzionare senza l’intervento di un operatore. Inoltre, quando operativi, la loro azione potrebbe non essere piu’ modificabile. Sono dunque drasticamente diversi dai droni.
MQ-9 Reaper britannico
A volte gli AWS sono indicati comeLAR (Lethal Autonomous Robotics). Questi sistemi d’arma completamente autonomi agiscono sulla base dell’intelligenza artificiale (*). L’impiego dell’intelligenza artificiale nei conflitti armati pone problemi rispetto alla protezione dei civili e al rispetto delle norme umanitarie internazionali
Il fatto che le AWS in alcune situazioni possano ridurre il rischio di perdite umane è difficilmente contestabile. Ma la prospettiva che questi robots completamente autonomi esercitino il potere di vita e di morte sugli esseri umani solleva gravi preoccupazioni.
In una lettera aperta del luglio 2015 i ricercatori della AI&Robotics hanno scritto: “La questione chiave è se avviare una corsa globale AI o prevenirla. Se le maggiori potenze militari spingeranno lo sviluppo di armi AI, tale corsa è inevitabile e le armi autonome saranno i kalashnikov del domani. Diversamente dalle armi nucleari, esse non richiedono materiali costosi o difficili da ottenere, saranno a buon prezzo e si diffonderanno. Non ci vorrà molto perché appaiano nel mercato nero, nelle mani di terroristi, dittatori, signori della guerra, ecc. (….) Per questo siamo convinti che la corsa alle armi AI non porti benefici all’umanità. L’Ai può rendere i campi di battaglia più sicuri per i civili in sono molti modi, senza creare nuovi strumenti per uccidere. (….) La maggior parte dei ricercatori AI non hanno interesse allo sviluppo di armi AI e non vogliono che altri inquinino il campo sviluppandole, creando nell’opinione pubblica una ostilità, verso la AI, che oscuri i benefici che può portare alla società.( ….) Iniziare una corsa alle armi AI è una cattiva idea e dovrebbe essere prevenuta dal bando delle armi autonome di offesa prive del controllo umano”.
All’estero è in corso un intenso dibattito sugli aspetti etici sollevati dall’avvento delle AWS. Informazioni in proposito si trovano in rete e alla pagina “Computers: National Security, War, and Civil Rights” (http://uspid.org/compwa.html) del sito dell’USPID – Unione Scienziati Per il Disarmo. (www.uspid.org). La prossima conferenza ISODARCO (http://www.isodarco.it/) e’ proprio su questi argomenti:
“ADVANCED AND CYBER WEAPONS SYSTEMS: TECHNOLOGY AND ARMS CONTROL”
(http://www.isodarco.it/courses/andalo17/andalo17.html ).
(*) Da Wikipedia: L’intelligenza artificiale è una disciplina, appartenente all’informatica, che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e di sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che a un osservatore comune sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.