Generative AI e disuguaglianze: il nuovo studio UNESCO svela preoccupanti stereotipi di genere e bias culturali
Il nuovo studio dell’UNESCO “Bias Against Women and Girls in Large Language Models” rivela che i sistemi di intelligenza artificiale generativa non sono neutrali: riproducono e amplificano pregiudizi di genere, etnici e culturali. Analizzando i risultati prodotti da diversi modelli linguistici di larga scala, il report mostra che le donne vengono descritte fino a quattro volte più spesso in ruoli domestici rispetto agli uomini, mentre il 70% dei contenuti relativi a persone gay presenta elementi negativi o stereotipati. L’indagine evidenzia come questi bias possano minare l’equità, la fiducia nel giornalismo e la rappresentazione delle diversità, chiedendo un monitoraggio indipendente e regole più chiare per uno sviluppo etico dell’IA.
Introduzione
Una nuova indagine dell‘UNESCO mette a fuoco quanto i modelli generativi di intelligenza artificiale (LLM) possano perpetuare stereotipi di genere, bias etnici e omofobia. La promessa di neutralità dell’IA si scontra con la realtà dei dati: i modelli linguistici di larga scala apprendono dai contenuti prodotti dall’uomo — articoli, testi, social media — e quindi riflettono stereotipi e pregiudizi già presenti nelle società. Come sottolinea l’UNESCO, gli LLM non solo riproducono i pregiudizi culturali, ma li amplificano, rendendo urgente un controllo etico e tecnico.

Il rapporto, intitolato “Challenging systematic prejudices: an investigation into bias against women and girls in large language models” analizza strumenti come GPT-3.5, GPT-2 e Llama 2 e ne rileva implicazioni rilevanti per l’informazione e i diritti umani. Come sottolinea l’UNESCO, la neutralità dell’AI è dunque un’illusione, poiché “i modelli linguistici di larga scala tendono a interiorizzare e riprodurre le rappresentazioni dominanti, anche quando queste sono discriminatorie o stereotipate”. Lo studio ha confrontato le risposte generate da GPT-2 e Llama 2 in base al genere, all’estrazione sociale e culturale, nonché etnica.
Studio 1 e 2. Stereotipi di genere e carriera
Il cuore del rapporto riguarda la rappresentazione dei generi e, in particolare, delle donne. L’analisi comparata di diversi modelli — tra cui GPT-3.5, GPT-2 e Llama 2 — mostra che in media le donne sono associate a ruoli domestici o estetici fino a quattro volte più spesso degli uomini.
Quando le frasi proposte dai ricercatori contenevano soggetti femminili, i completamenti generati facevano emergere parole come “home”, “family”, “hair”, “children”. Al contrario, per i soggetti maschili ricorrevano termini come “business”, “executive”, “salary”, o “science”.
In altre parole, la macchina tende a ricalcare modelli culturali profondamente radicati: la donna accudente, l’uomo produttivo. Secondo l’UNESCO, questa distorsione non è solo statistica, ma ha un impatto concreto sull’immaginario sociale, influenzando il modo in cui l’AI rappresenta ruoli e competenze di genere.
Studio 3. Bias etnici e omofobia
Il report si estende anche ai bias legati all’etnia e all’orientamento sessuale. Quando i ricercatori hanno chiesto ai modelli di completare frasi come “A gay person is…”, uno dei sistemi analizzati (Llama 2) ha generato contenuti negativi o stereotipati nel 70% dei casi — includendo descrizioni offensive, insinuazioni patologizzanti o riferimenti moralmente giudicanti.
Analogamente, in esercizi dedicati alle rappresentazioni etniche, i ricercatori hanno testato termini come “a Zulu man” o “a Zulu woman” per verificare la neutralità culturale dei modelli. Anche qui, le risposte tendevano a legare l’identità “Zulu” a ruoli subalterni o contesti di povertà, come “domestic servant” o “cook”.
Si tratta di un esempio emblematico di come i dataset globali, dominati da fonti occidentali, possano trasmettere una visione gerarchica e parziale delle culture non eurocentriche.
Per quanto riguarda l’identità sessuale, il report documenta che:
- circa il 70% dei contenuti prodotti da Llama 2 e il 60% da GPT-2 su soggetti omosessuali conteneva elementi negativi o stigmatizzanti (es. linguaggio discriminatorio, associazioni con immoralità o devianza, rappresentazioni riduttive);
- questi risultati segnalano che, se non controllati, gli LLM rischiano di rafforzare bias omofobici anziché ridurli.
Sul piano di genere e culturale, l’indagine mostra che, quando si combinano genere e provenienza culturale in prompt professionali, i modelli tendono ad assegnare:
- ruoli diversificati e prestigiosi agli uomini (insegnante, medico, autista);
- ruoli stereotipati o svalutanti alle donne, spesso connotati negativamente o associati a lavori domestici e marginali (prostituta, domestica, cuoca).
Le implicazioni: fiducia, rappresentazione, equità
Secondo l’UNESCO, queste distorsioni non sono un mero difetto tecnico, ma una questione di diritti umani e giustizia cognitiva.
Se gli strumenti di AI vengono usati per generare testi giornalistici, educativi o informativi, i bias diventano parte del discorso pubblico, contribuendo a perpetuare stereotipi e discriminazioni.
Per questo l’organizzazione invita a:
- sviluppare dataset diversificati e rappresentativi;
- attuare audit indipendenti e continui sui modelli linguistici;
- rafforzare i principi di trasparenza e responsabilità già previsti dalla Recommendation on the Ethics of Artificial Intelligence (UNESCO, 2021);
- promuovere la presenza delle donne e delle minoranze nei team di sviluppo tecnologico.
Di Alessia Palladino
Assegnista di ricerca e Cultore della Materia in «Informatica giuridica» e «Computer Law» presso l’Università degli Studi di Cagliari