Gli anni passano, le società cambiano ma i pregiudizi , come quelli sessisti o razzisti, hanno vita lunga. A denunciare questa volta gli orientamenti sessisti dell’AI è l’Unesco, l’organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura, preoccupata che i grandi modelli in open source come Meta e OpenAI veicolino contenuti « senza equivoci nei confronti delle donne ».
Secondo uno studio effettuato dall’agosto scorso all’inizio di marzo, i modelli GTP2 e 3 di OpenAI e LLama2 del rivale Meta, tendono ad associare maggiormente nomi femminili a parole come casa, famiglia e bambini mentre quelli maschili sono prevalentemente accoppiati a carriera, salario o commercio. Sollecitati ad allargare i loro orizzonti a persone di diverse origine e genere, questi modelli hanno generato storie in cui si ripetevano gli stereotipi di sempre sia per quanto riguardava le donne o le culture minoritarie . Cosicché, rileva l’Unesco, un uomo inglese tende ad essere rappresentato come un professore, un impiegato di banca o un autista mentre una donna inglese, in almeno il 30% dei testi generati, come una indossatrice, una prostituta o una cameriera.
L’incapacità di rappresentare l’intero ventaglio dei loro utilizzatori rischia di alimentare ulteriormente stereotipi e pregiudizi in quanto, sottolinea l’organizzazione ,« più verrà utilizzata AI maggiormente queste applicazioni avranno modo di influenzare la percezione di milioni di persone. E quindi la presenza stessa di un minimo pregiudizio sessista nei contenuti che genera può amplificare in modo significativo le ineguaglianze nel mondo reale » spiega la sua direttrice Audrey Azoulay.
Per lottare contro stereotipi e discriminazioni l’Unesco invita le aziende del settore a diversificare le loro équipes di ingegneri accogliendo nelle loro file un maggior numero di donne. Attualmente, secondo il foro economico mondiale, le donne rappresentano solo il 22% del personale impiegatp nell’AI. E’ da anni ormai che si riproverano all’AI pregiudizi sessisti e razzisti. Già anni fa Science rilevava come la tecnologia del Machine learning riproduce gli orientamenti umani, nel bene e nel male.
«I nostri risultati suggeriscono che se noi fabbrichiamo un sistema intelligente che riesce ad imparare quel tanto delle proprierà di linguaggio per essere in grado di capirlo e produrlo, in questo processo acquisirà anche associazioni culturali e storiche, di cui alcune possono essere problematiche ». « Molti accusano l’AI di nutrire pregiudizi. Non è così. Siamo noi che abbiamo pregiudizi e l‘AI li impara » aveva precisato la ricercatrice Joanna Bryson che aveva collaborato allo studio pubblicato dalla rivista.
Stereotipi che possono avere effetti negativi in molti campi, come la richiesta di un prestito o l’esame di curriculum, se le domande di prestiti o di assunzioni dovessero essere esaminate basandosi su algoritmi che utilizzano dati creati dall’uomo e che quindi, se da una parte possono facilitare il compito, dall’altra rischiano di riprodurre pregiudizi e ingiustizie.
Sarà bene dunque che l’AI, che si accinge ad avere un’enorme influenza sulle nostre società, faccia rapidamente sostanziali passi avanti per liberare, uomini e macchine, da stereotipi e pregiudizi.