Unesco: l’AI è sessista perché ci lavorano troppo poche donne

Uno studio dimostra che veicola stereotipi e pregiudizi

Gli anni passano, le società cambiano ma i pregiudizi , come quelli sessisti o razzisti, hanno vita lunga. A denunciare questa volta gli orientamenti sessisti dell’AI è l’Unesco, l’organizzazione delle Nazioni Unite per l’educazione, la scienza e la cultura, preoccupata che i grandi modelli  in open source come Meta  e OpenAI veicolino contenuti « senza equivoci nei confronti delle donne ».

Secondo uno studio  effettuato dall’agosto scorso all’inizio di marzo, i modelli GTP2 e 3 di OpenAI e LLama2 del rivale Meta, tendono ad associare maggiormente  nomi femminili a parole come casa, famiglia e bambini mentre quelli maschili sono prevalentemente accoppiati a carriera, salario o commercio. Sollecitati ad allargare i loro orizzonti  a persone di diverse origine e genere, questi modelli hanno generato storie in  cui si ripetevano gli stereotipi di sempre sia per quanto riguardava le donne o le culture minoritarie . Cosicché, rileva l’Unesco, un uomo inglese tende ad essere rappresentato come un professore, un impiegato di banca o un autista mentre una donna inglese, in almeno il 30% dei testi generati, come una indossatrice, una prostituta o una cameriera.

L’incapacità di rappresentare l’intero ventaglio dei loro utilizzatori rischia di alimentare ulteriormente stereotipi e pregiudizi in quanto, sottolinea l’organizzazione ,« più verrà utilizzata AI maggiormente queste applicazioni avranno modo di influenzare la percezione di milioni di persone. E quindi  la presenza stessa di un minimo pregiudizio sessista nei contenuti che genera può amplificare in modo significativo le ineguaglianze nel mondo reale »  spiega la sua direttrice Audrey Azoulay.

Per lottare contro stereotipi e discriminazioni l’Unesco invita le aziende del settore a diversificare le loro équipes di ingegneri  accogliendo nelle loro file un maggior numero di donne. Attualmente, secondo il foro economico mondiale, le donne rappresentano solo il 22% del personale impiegatp nell’AI. E’ da anni ormai che si riproverano all’AI pregiudizi sessisti e razzisti. Già anni fa Science rilevava come la tecnologia del Machine learning riproduce gli orientamenti umani, nel bene e nel male.
 
«I nostri risultati suggeriscono che se noi fabbrichiamo un sistema intelligente  che riesce ad imparare quel tanto delle proprierà di linguaggio per essere in grado di capirlo e produrlo, in questo processo acquisirà anche associazioni  culturali e storiche, di cui alcune possono essere problematiche ». « Molti accusano l’AI di nutrire pregiudizi. Non è così. Siamo noi che abbiamo pregiudizi e l‘AI li impara » aveva precisato la ricercatrice Joanna Bryson che aveva collaborato allo studio pubblicato dalla rivista.

Stereotipi che possono avere effetti negativi in molti campi, come la richiesta di un prestito o l’esame di curriculum, se le domande di prestiti o di assunzioni dovessero essere esaminate basandosi su algoritmi che utilizzano dati creati dall’uomo e che quindi, se da una parte possono facilitare il compito, dall’altra rischiano di riprodurre  pregiudizi e ingiustizie.

Sarà bene dunque che l’AI, che si accinge ad avere un’enorme influenza sulle nostre società, faccia rapidamente sostanziali passi avanti  per liberare, uomini e macchine, da stereotipi e pregiudizi.

Total
0
Condivisioni
Prec.
Prato, Ilaria Buggetti candidata sindaco del Partito democratico

Prato, Ilaria Buggetti candidata sindaco del Partito democratico

Una ritrovata armonia tra le diverse anime del Pd che erano arrivate ad un passo

Succ.
21 Marzo, inizia la Primavera e sboccia la Casa delle Donne

21 Marzo, inizia la Primavera e sboccia la Casa delle Donne

L'inaugurazione vedrà iniziative per tutta la giornata

You May Also Like
Total
0
Condividi