Quando qualcuno usa il concetto di democrazia senza inserirlo nel contesto delle forme di governo e senza valutare le opportunità che il corollario di sub-definizioni mette a disposizione dei clienti del bar Luogo Comune, si crea un fenomeno particolare: il significato si rovescia, e la definizione tecnica sfugge al confronto per entrare a far parte del nostro immaginario. La democrazia, infatti, può essere rappresentativa, liberale, popolare, sociale, parlamentare, costituzionale, diretta, deliberativa, partecipativa, assembleare, e via elencando, senza per questo trasformarsi in utopia o feticcio, in un alfiere cioè della retorica appartenenza alla compagine dei migliori. Senza scomodare Platone, la democrazia “pura”, però, non esiste. Non può proprio esistere, sarebbe, infatti, una contraddizione. Un professore della Yale University, Robert A. Dahl, coniò nel 1953 il termine Poliarchia per contrapporre la forma di governo “di molti”, pur sempre d’indirizzo democratico, alle dittature e ai regimi autoritari.
Il futuro è in mano alle tecnologie avanzate ed è importante comprenderne i meccanismi disciplinari. Le democrazie della sorveglianza impongono ai diritti individuali e alle tutele tipiche delle democrazie liberali alcune nuove restrizioni che ancora le leggi e codici non riescono a configurare. Del resto, la profilazione commerciale è diventata la nuova firma digitale: io sono ciò che consumo.
Il diritto non sempre arriva in tempo a modificare gli assetti normativi. I principi e le regole, evidentemente non stanno sullo stesso piano. Il diritto non è fatto solo di regole, ma anche e soprattutto di principi, che prescindono dai fatti concreti e specifici che sono chiamati a disciplinare. E a volte occorre rispondere a una semplice domanda: occorre costruire un nuovo modello di responsabilità?
In questi giorni, ho affrontato, con un certo disagio, la lettura di alcuni documenti giuridici sull’Intelligenza Artificiale nel campo ristretto del diritto commerciale internazionale: principi e regole e molto materiale di Soft Law. Non capisco un’acca di informatica, reti neurali, organismi tecnologici deterministici e non deterministici, machine learning, black-box, deep learning, eccetera. M’interessa però comprendere il meccanismo della responsabilità civile in un sistema di IA con applicazioni giuridiche e sanitarie. L’apparato non possiede certo personalità giuridica, ma penetra nelle nostre vite più di un governo autocratico, producendo dispositivi disciplinari di tutto rispetto e potenziali danni alla nostra salute, psichica e fisica.
Ho dunque confrontato e comparato: il modello cinese (Beijing AI Principles, 2019); il modello USA (Executive Order del Presidente degli Stati Uniti, 2023); il modello Unione europea (AI Act, 2024); il modello G7 (Principi guida e Codice di condotta, 2023); e infine il modello ONU (documentazione di vario tipo di UNCITRAL, l’agenzia delle Nazioni Unite per il diritto del commercio internazionale) e quello di UNIDROIT (International Institute for the Unification of Private Law).
I modelli di IA in Usa, Ue e Cina rappresentano, a conti fatti, anche tre diverse e consolidate impostazioni del diritto: nel primo caso, un modello giurisprudenziale di Common Law; nel secondo caso un modello normativo di Civil Law; nel terzo caso un modello in cui le fonti del diritto sono basate sia su precetti morali, sia su un complesso di norme scritte.
Divisi su tutto e guardinghi come mai, i sistemi analizzati si mostrano palesemente interessati più alla sovranità digitale che alla tutela degli interessi individuali, o alla definizione di una nuova responsabilità. Sistemi di impronta commerciale, come è anche giusto che sia, che guardano però tutti al proprio ombelico, ovviamente digitale. Il metodo di neutralità tecnologica? Soltanto una bella favola. La globalizzazione? Un lontano ricordo dei nonni. I più ingenui? Manco a dirlo, gli europei. E la responsabilità civile? Ancora in alto mare. I giuristi illuminati indicano la soluzione più adeguata in un sistema di allocazione del rischio, un principio basato sull’accountability, cioè sulla responsabilizzazione del soggetto che trae vantaggio dall’applicazione di IA, cui compete assumersi il rischio del danno. In altre parole, una buona assicurazione.
Gli USA detengono il dominio tecnologico mondiale sull’IA, ma poco hanno fatto sul fronte delle regole. Il loro status giuridico attuale è quello del modello oligarchico in nome delle leggi di mercato, la mitica self regulation abbinata all’altrettanto mitica co-regulation con le grandi corporations proprietarie della tecnologia: Amazon, Anthropic, Google, Inflection, Meta, Microsoft, e OpenAI. Bisogna essere devoti al liberismo più estremista per apprezzare un simile modello, a parer mio molto pericoloso. I sistemi di IA dovrebbero servire anzitutto a curare le persone, perciò lasciarli così a briglia sciolta, senza regole di sorta, mi pare decisamente un azzardo inutile anche per un modello sanitario assistenziale assicurativo come quello USA.
Il modello cinese, rispetto alla leadership tecnologica USA, è invece ai vertici mondiali per la mole dei flussi di dati e mega-dati, il cibo preferito dell’IA. Un modello non certo migliore. Diversamente dall’oligarchia comportamentale USA, la Cina si caratterizza per essere sempre più attiva nella produzione di norme nell’ambito della protezione “politica” dei dati personali (Personal Information Protection Law, in vigore dal 2021) e per limitare il potere politico delle corporations, per esempio Tencent e ByteDance (TikTok), anche con l’emanazione di leggi antitrust (Cybersecurity Law, 2017). Lo Stato controlla tutto, e la visione strategica cinese si basa sullo Shanghai Data Exchange (SDE), la borsa di Shanghai per lo scambio dei dati: il libero mercato in una dimensione iperstatalista.
In mezzo l’Unione europea con la sua strategia sbarazzina volta ad attrarre soggetti terzi in un mercato comune regolato nello spazio giuridico dei Ventisette membri. Un modello di IA che si strutturerebbe grazie all’affermazione della sovranità digitale europea, che è insieme esterna, verso gli altri due principali attori globali (USA e Cina), e interna, verso gli Stati nazionali europei. Una strategia chiamata, con un sano senso del ridicolo, Effetto Bruxelles. La guerra in Ucraina ha però rotto le uova nel paniere UE giacché ha prodotto un rafforzamento del ruolo degli Stati nazionali nel digitale per ovvie ragioni di cybersecurity.
Le ultime notizia dal fronte tecnologico dicono che l’IA generativa stia lasciando il campo a un nuovo sistema definito di Intelligenza Artificiale Razionale, che potrebbe rovesciare i vecchi codici fino a oggi conosciuti della IA generativa per entrare in un mondo sconosciuto e nuovo, e che forse s’introdurrà con forza inaspettata nella biopolitica dell’individuo stravolgendo i canoni interpretativi della realtà giuridica e modificando i diversi principi di legalità sino a oggi conosciuti dagli ordinamenti di riferimento.
Ce la farà il diritto a stare al passo con i tempi per aiutare l’individuo a non finire un’altra volta nei guai? Oppure il futuro che ci aspetta dovrà fare a meno di regole giuridiche e, di conseguenza, di una cultura del diritto che quelle regole hanno espresso nel lasso di tempo che ha preceduto il momento presente.
Qualche sera fa, in un telefilm della serie NCIS l’Intelligenza Artificiale era il principale sospettato di un omicidio mentre, in un altro programma, quel simpatico folletto di Paolo Rossi definiva l’IA come un sistema di Ignoranza Naturale. E. M. Cioran disse: “Tutte le calamità – rivoluzioni, guerre, persecuzioni – derivano da un ‘pressappoco’ iscritto su una bandiera”. Forse quel “pressappoco” è la nostra Ignoranza Naturale.