Bias di Genere nelle Intelligenze Artificiali: Un’Inchiesta di Franceinfo
Pubblicato
Aggiornato
Tempo di lettura: 5min
/2025/02/24/ia-generative-67bcf5fd282ad311549544.jpg)
Qual è la vera opinione delle IA? Le intelligenze artificiali generative, quelle che creano contenuti come testi, suoni o immagini in base alle richieste, sono al centro di numerosi dibattiti da anni e, in particolare, negli ultimi mesi a causa della loro diffusione. Tra queste, ci sono ovviamente ChatGPT, prodotto dall’americana OpenAI, il Grok di Elon Musk e l’equivalente francese, il Chat di Mistral AI. Alcuni utenti hanno riscontrato bias di genere prodotti da queste intelligenze artificiali, bias sui quali Franceinfo ha condotto un’inchiesta.
Queste IA sono state testate con vari esempi. Se chiediamo una foto di una persona che cucina, quasi sempre viene rappresentata una donna. Di solito, è magra, indossa un grembiule, ha una casseruola e un cucchiaio in mano. È sempre sorridente, visibilmente felice di cucinare.
/2025/02/25/cuisine-67bd7640450e2679602144.jpg)
D’altra parte, se chiediamo di vedere una persona con una stella Michelin che cucina, appare un uomo, un uomo bianco con una barba ben curata e un’espressione seria.
Osserviamo gli stessi stereotipi anche nel campo medico. Chiedendo una foto di qualcuno che è infermiere, ancora una volta appare una donna, al capezzale di pazienti, di nuovo magra e sorridente. Tuttavia, se cerchiamo un’illustrazione della professione di chirurgo, quasi sistematicamente appare un uomo pronto a operare.
/2025/02/25/6-67bd764047f3e520954495.jpg)
Tra le decine di immagini generate su ChatGPT, Grok o sull’IA francese Le Chat, le persone disabili sono pressoché invisibili e sono quasi sempre suggerite persone bianche.
Per comprendere il funzionamento di questi bias nelle IA generative, Franceinfo ha mostrato gli esempi precedenti a Jean-Michel Loubes, direttore di ricerca all’Inria, l’Istituto nazionale di ricerca in scienze e tecnologie. “Ciò deriva dal modo in cui le IA vengono addestrate,” afferma lo specialista. “Le IA sono addestrate da sviluppatori, utilizzando dati disponibili su internet, e questi dati riflettono, in fin dei conti, i bias delle nostre società. Quindi l’IA apprende prima questi bias, ma li amplifica addirittura.”
“Il funzionamento dell’IA è ciò che è in gioco.”
Jean-Michel Loubes, direttore di ricerca all’Inria
a Franceinfo
Il funzionamento dell’IA è oggetto di alcuni lavori di Jean-Michel Loubes. Secondo lui, i dati non sono gli unici responsabili di questi bias: “Gli algoritmi di ottimizzazione alla base delle IA tenderanno a generare i ragionamenti più comuni e quindi più semplicistici. Questo lo chiameremmo stereotipi,” spiega. “Quindi, l’IA apprende i bias del mondo e poi li generalizza. Ragionano come noi, si può essere tentati di adottare soluzioni semplici che sembrano vere.”
Secondo Jean-Michel Loubes, l’IA può essere addestrata a correggere i suoi bias facendole notare gli stereotipi che utilizza, affinché possa correggerli da sola e apprendere dai suoi errori. Un’altra possibile via di miglioramento delle IA è integrare regole da seguire in anticipo, nel momento in cui vengono sviluppate e configurate.
/2025/02/25/9-67bd76404b68d593467588.jpg)
Qualche settimana fa, la presidente dell’Assemblea nazionale, Yaël Braun-Pivet, ha comparato le prestazioni dell’IA americana Chat GPT e dell’IA francese Le Chat. Alla richiesta “Rappresentami due persone, una presidente dell’Assemblea nazionale e l’altra CEO di una grande azienda”, da un lato, l’IA americana mostra due uomini di oltre 50 anni, mentre dall’altro lato, l’IA francese mostra un uomo e una donna.
J’ai entré dans Grok, l’IA générative de X et dans Le Chat de @MistralAI ce prompt :
« Représente-moi deux personnes, l’une présidant l’Assemblée nationale, l’autre PDG d’une grande entreprise ».
Voilà le résultat. 🇫🇷👀 pic.twitter.com/Vzh0i1ZVIy
— Yaël Braun-Pivet (@YaelBRAUNPIVET) February 11, 2025
“In primo luogo, ciò ci dice che in Francia, gli sviluppatori di IA sono consapevoli di questi problemi di bias e stanno tentando di combatterli,” reagisce Jean-Michel Loubes. “La soluzione tecnica scelta, verosimilmente, è senza dubbio modificare, a priori, i dati di input per costringere l’IA a mostrare immagini diverse, sia uomini che donne.” Contattati riguardo ai bias osservati nella loro IA, i francesi di Mistral AI non hanno risposto.
In ogni caso, gli sviluppatori dovranno combattere contro questi stereotipi negli anni a venire. Innanzitutto perché l’IA, in Europa, è soggetta a un quadro legale e le aziende che le sviluppano potrebbero presto trovarsi a dover affrontare sanzioni finanziare se i bias vengono osservati e non corretti. Ciò che sarà particolarmente monitorato è l’impatto che questi stereotipi potrebbero avere sulle nostre vite, amplificando, ad esempio, le disuguaglianze già esistenti.