{"id":1107,"date":"2025-10-23T15:44:52","date_gmt":"2025-10-23T13:44:52","guid":{"rendered":"https:\/\/sites.unica.it\/ict4lawforensics\/?p=1107"},"modified":"2025-10-23T15:47:50","modified_gmt":"2025-10-23T13:47:50","slug":"generative-ai-e-disuguaglianze-il-nuovo-studio-unesco-svela-preoccupanti-stereotipi-di-genere-e-bias-culturali","status":"publish","type":"post","link":"https:\/\/sites.unica.it\/ict4lawforensics\/2025\/10\/23\/generative-ai-e-disuguaglianze-il-nuovo-studio-unesco-svela-preoccupanti-stereotipi-di-genere-e-bias-culturali\/","title":{"rendered":"Generative AI e disuguaglianze: il nuovo studio UNESCO svela preoccupanti stereotipi di genere e bias culturali"},"content":{"rendered":"\n<h3 class=\"wp-block-heading\"><\/h3>\n\n\n\n<p class=\"is-style-info\"><em>Il nuovo studio dell\u2019UNESCO \u201cBias Against Women and Girls in Large Language Models\u201d rivela che i sistemi di intelligenza artificiale generativa non sono neutrali: riproducono e amplificano pregiudizi di genere, etnici e culturali. Analizzando i risultati prodotti da diversi modelli linguistici di larga scala, il report mostra che le donne vengono descritte fino a quattro volte pi\u00f9 spesso in ruoli domestici rispetto agli uomini, mentre il 70% dei contenuti relativi a persone gay presenta elementi negativi o stereotipati. L\u2019indagine evidenzia come questi bias possano minare l\u2019equit\u00e0, la fiducia nel giornalismo e la rappresentazione delle diversit\u00e0, chiedendo un monitoraggio indipendente e regole pi\u00f9 chiare per uno sviluppo etico dell\u2019IA.<\/em><\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\" \/>\n\n\n\n<h3 class=\"wp-block-heading\">Introduzione<\/h3>\n\n\n\n<p>Una nuova <strong><a href=\"https:\/\/www.unesco.org\/en\/articles\/generative-ai-unesco-study-reveals-alarming-evidence-regressive-gender-stereotypes\">indagine <\/a><\/strong>dell<strong>&#8216;UNESCO <\/strong>mette a fuoco quanto i modelli generativi di intelligenza artificiale (LLM) possano perpetuare <strong>stereotipi di genere<\/strong>, <em><strong>bias <\/strong><\/em>etnici e omofobia. La promessa di <strong>neutralit\u00e0 <\/strong>dell\u2019IA si scontra con la realt\u00e0 dei dati: i modelli linguistici di larga scala apprendono dai contenuti prodotti dall\u2019uomo \u2014 articoli, testi, social media \u2014 e quindi riflettono stereotipi e pregiudizi gi\u00e0 presenti nelle societ\u00e0. Come sottolinea l\u2019UNESCO, gli LLM <strong>non solo riproducono i pregiudizi culturali, ma li amplificano<\/strong>, rendendo urgente un controllo etico e tecnico.<\/p>\n\n\n\n<div class=\"wp-block-media-text is-stacked-on-mobile\"><figure class=\"wp-block-media-text__media\"><img loading=\"lazy\" decoding=\"async\" width=\"362\" height=\"512\" src=\"https:\/\/sites.unica.it\/ict4lawforensics\/files\/2025\/10\/WhatsApp-Image-2025-10-23-at-15.26.23.jpeg\" alt=\"\" class=\"wp-image-1109 size-full\" srcset=\"https:\/\/sites.unica.it\/ict4lawforensics\/files\/2025\/10\/WhatsApp-Image-2025-10-23-at-15.26.23.jpeg 362w, https:\/\/sites.unica.it\/ict4lawforensics\/files\/2025\/10\/WhatsApp-Image-2025-10-23-at-15.26.23-212x300.jpeg 212w\" sizes=\"auto, (max-width: 362px) 100vw, 362px\" \/><\/figure><div class=\"wp-block-media-text__content\">\n<p>Il rapporto, intitolato <em><strong>\u201cChallenging systematic prejudices: an investigation into bias against women and girls in large language models\u201d<\/strong><\/em> analizza strumenti come <strong>GPT-3.5, GPT-2 e Llama 2 <\/strong>e ne rileva implicazioni rilevanti per l\u2019informazione e i diritti umani. Come sottolinea l\u2019UNESCO, la neutralit\u00e0 dell\u2019AI \u00e8 dunque un\u2019illusione, poich\u00e9 <em>\u201ci modelli linguistici di larga scala tendono a interiorizzare e riprodurre le rappresentazioni dominanti, anche quando queste sono discriminatorie o stereotipate\u201d<\/em>. Lo studio ha confrontato le risposte generate da GPT-2 e Llama 2 in base al genere, all&#8217;estrazione sociale e culturale, nonch\u00e9 etnica. <br><\/p>\n<\/div><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">Studio 1 e 2. Stereotipi di genere e carriera <\/h2>\n\n\n\n<p>Il cuore del rapporto riguarda la rappresentazione dei generi e, in particolare, delle donne. L\u2019analisi comparata di diversi modelli \u2014 tra cui GPT-3.5, GPT-2 e Llama 2 \u2014 mostra che in media <strong>le donne sono associate a ruoli domestici o estetici fino a quattro volte pi\u00f9 spesso degli uomini<\/strong>.<br>Quando le frasi proposte dai ricercatori contenevano soggetti femminili, i completamenti generati facevano emergere parole come <em>\u201chome\u201d, \u201cfamily\u201d, \u201chair\u201d, \u201cchildren\u201d<\/em>. Al contrario, per i soggetti maschili ricorrevano termini come <em>\u201cbusiness\u201d, \u201cexecutive\u201d, \u201csalary\u201d<\/em>, o <em>\u201cscience\u201d<\/em>.<\/p>\n\n\n\n<p>In altre parole, la macchina tende a ricalcare modelli culturali profondamente radicati: la donna accudente, l\u2019uomo produttivo. Secondo l\u2019UNESCO, questa distorsione non \u00e8 solo statistica, ma <strong>ha un impatto concreto sull\u2019immaginario sociale<\/strong>, influenzando il modo in cui l\u2019AI rappresenta ruoli e competenze di genere.<br><\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Studio 3. Bias etnici e omofobia<br><\/h2>\n\n\n\n<p>Il report si estende anche ai bias legati all\u2019<strong>etnia<\/strong> e all\u2019<strong>orientamento sessuale<\/strong>. Quando i ricercatori hanno chiesto ai modelli di completare frasi come <em>\u201cA gay person is\u2026\u201d<\/em>, uno dei sistemi analizzati (<em>Llama 2<\/em>) ha generato <strong>contenuti negativi o stereotipati nel 70% dei casi<\/strong> \u2014 includendo descrizioni offensive, insinuazioni patologizzanti o riferimenti moralmente giudicanti.<\/p>\n\n\n\n<p>Analogamente, in esercizi dedicati alle rappresentazioni etniche, i ricercatori hanno testato termini come <em>\u201ca Zulu man\u201d<\/em> o <em>\u201ca Zulu woman\u201d<\/em> per verificare la neutralit\u00e0 culturale dei modelli. Anche qui, <strong>le risposte tendevano a legare l\u2019identit\u00e0 \u201cZulu\u201d a ruoli subalterni o contesti di povert\u00e0<\/strong>, come \u201cdomestic servant\u201d o \u201ccook\u201d.<br>Si tratta di un esempio emblematico di come i dataset globali, dominati da fonti occidentali, possano trasmettere una visione gerarchica e parziale delle culture non eurocentriche.<\/p>\n\n\n\n<p>Per quanto riguarda <strong>l\u2019identit\u00e0 sessuale<\/strong>, il report documenta che:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>circa il 70% dei contenuti prodotti da Llama 2<\/strong> e <strong>il 60% da GPT-2<\/strong> su soggetti omosessuali conteneva <strong>elementi negativi o stigmatizzanti<\/strong> (es. linguaggio discriminatorio, associazioni con immoralit\u00e0 o devianza, rappresentazioni riduttive);<\/li>\n\n\n\n<li>questi risultati segnalano che, se non controllati, gli LLM rischiano di <strong>rafforzare bias omofobici<\/strong> anzich\u00e9 ridurli.<\/li>\n<\/ul>\n\n\n\n<p>Sul piano <strong>di genere e culturale<\/strong>, l\u2019indagine mostra che, quando si combinano genere e provenienza culturale in prompt professionali, i modelli tendono ad assegnare:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>ruoli diversificati e prestigiosi agli uomini<\/strong> (insegnante, medico, autista);<\/li>\n\n\n\n<li><strong>ruoli stereotipati o svalutanti alle donne<\/strong>, spesso connotati negativamente o associati a lavori domestici e marginali (prostituta, domestica, cuoca).<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Le implicazioni: fiducia, rappresentazione, equit\u00e0<\/strong><br><\/h2>\n\n\n\n<p>Secondo l\u2019UNESCO, queste distorsioni non sono un mero difetto tecnico, ma una <strong>questione di diritti umani e giustizia cognitiva<\/strong>.<br>Se gli strumenti di AI vengono usati per generare testi giornalistici, educativi o informativi, i bias diventano parte del discorso pubblico, contribuendo a perpetuare stereotipi e discriminazioni.<\/p>\n\n\n\n<p>Per questo l\u2019organizzazione invita a:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>sviluppare <strong>dataset diversificati<\/strong> e rappresentativi;<\/li>\n\n\n\n<li>attuare <strong>audit indipendenti e continui<\/strong> sui modelli linguistici;<\/li>\n\n\n\n<li>rafforzare i <strong>principi di trasparenza e responsabilit\u00e0<\/strong> gi\u00e0 previsti dalla <em>Recommendation on the Ethics of Artificial Intelligence<\/em> (UNESCO, 2021);<\/li>\n\n\n\n<li>promuovere la <strong>presenza delle donne e delle minoranze nei team di sviluppo<\/strong> tecnologico.<\/li>\n<\/ul>\n\n\n\n<p class=\"is-style-info\">Di\u00a0<strong>Alessia Palladino<\/strong><br><em>Assegnista di ricerca e Cultore della Materia in \u00abInformatica giuridica\u00bb e \u00abComputer Law\u00bb\u00a0 presso l\u2019Universit\u00e0 degli Studi di Cagliari<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Il report UNESCO Challenging Systematic Prejudices: An Investigation into Bias Against Women and Girls in Large Language Models documenta la persistenza di stereotipi sessisti, culturali e omofobici nei principali modelli di linguaggio AI, tra cui GPT-2 e Llama 2. L\u2019analisi mostra che i modelli generano contenuti pi\u00f9 vari e interessanti per soggetti maschili o appartenenti a gruppi culturali pi\u00f9 rappresentati, mentre le donne e i membri di culture meno presenti nei dati risultano pi\u00f9 stereotipati e ripetitivi. Il 70% dei testi generati su persone gay conteneva elementi negativi o stigmatizzanti. Lo studio evidenzia l\u2019urgenza di implementare audit etici, dataset inclusivi e trasparenza nei processi di sviluppo dell\u2019AI.<\/p>\n","protected":false},"author":9973,"featured_media":1109,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_coblocks_attr":"","_coblocks_dimensions":"","_coblocks_responsive_height":"","_coblocks_accordion_ie_support":"","footnotes":""},"categories":[1],"tags":[13,27,29,32,30,8,12,31,28],"class_list":["post-1107","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news-ed-eventi","tag-artificial-intelligence","tag-bias","tag-discriminazione","tag-ethics","tag-gpt","tag-ia","tag-intelligenza_artificiale","tag-llama","tag-llm"],"_links":{"self":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1107","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/users\/9973"}],"replies":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/comments?post=1107"}],"version-history":[{"count":2,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1107\/revisions"}],"predecessor-version":[{"id":1111,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/posts\/1107\/revisions\/1111"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media\/1109"}],"wp:attachment":[{"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/media?parent=1107"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/categories?post=1107"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/sites.unica.it\/ict4lawforensics\/wp-json\/wp\/v2\/tags?post=1107"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}