Intelligenze Artificiali: Riflessi di Genere o Stereotipi Digitali?

 

Bias di Genere nelle Intelligenze Artificiali: Un’Inchiesta di Franceinfo


Pubblicato


Aggiornato


Tempo di lettura: 5min

Le intelligenze artificiali generative sono accusate di alimentare bias di genere.
Le intelligenze artificiali generative sono accusate di alimentare bias di genere. (GUILLAUME SALIGOT / OUEST-FRANCE / MAXPPP)

Qual è la vera opinione delle IA? Le intelligenze artificiali generative, quelle che creano contenuti come testi, suoni o immagini in base alle richieste, sono al centro di numerosi dibattiti da anni e, in particolare, negli ultimi mesi a causa della loro diffusione. Tra queste, ci sono ovviamente ChatGPT, prodotto dall’americana OpenAI, il Grok di Elon Musk e l’equivalente francese, il Chat di Mistral AI. Alcuni utenti hanno riscontrato bias di genere prodotti da queste intelligenze artificiali, bias sui quali Franceinfo ha condotto un’inchiesta.

Queste IA sono state testate con vari esempi. Se chiediamo una foto di una persona che cucina, quasi sempre viene rappresentata una donna. Di solito, è magra, indossa un grembiule, ha una casseruola e un cucchiaio in mano. È sempre sorridente, visibilmente felice di cucinare.

Immagini di 'persone che cucinano con i loro bambini' proposte da diverse intelligenze artificiali.
Immagini di ‘persone che cucinano con i loro bambini’ proposte da diverse intelligenze artificiali. (ANTOINE DEIANA / FRANCEINFO)

D’altra parte, se chiediamo di vedere una persona con una stella Michelin che cucina, appare un uomo, un uomo bianco con una barba ben curata e un’espressione seria.

Osserviamo gli stessi stereotipi anche nel campo medico. Chiedendo una foto di qualcuno che è infermiere, ancora una volta appare una donna, al capezzale di pazienti, di nuovo magra e sorridente. Tuttavia, se cerchiamo un’illustrazione della professione di chirurgo, quasi sistematicamente appare un uomo pronto a operare.

Esempio di immagine generata da ChatGPT per la richiesta di 'una persona che esercita la professione di infermiere'.
Esempio di immagine generata da ChatGPT per la richiesta di ‘una persona che esercita la professione di infermiere’. (ANTOINE DEIANA / FRANCEINFO)

Tra le decine di immagini generate su ChatGPT, Grok o sull’IA francese Le Chat, le persone disabili sono pressoché invisibili e sono quasi sempre suggerite persone bianche.

Per comprendere il funzionamento di questi bias nelle IA generative, Franceinfo ha mostrato gli esempi precedenti a Jean-Michel Loubes, direttore di ricerca all’Inria, l’Istituto nazionale di ricerca in scienze e tecnologie. “Ciò deriva dal modo in cui le IA vengono addestrate,” afferma lo specialista. “Le IA sono addestrate da sviluppatori, utilizzando dati disponibili su internet, e questi dati riflettono, in fin dei conti, i bias delle nostre società. Quindi l’IA apprende prima questi bias, ma li amplifica addirittura.”

“Il funzionamento dell’IA è ciò che è in gioco.”

Jean-Michel Loubes, direttore di ricerca all’Inria

a Franceinfo

Il funzionamento dell’IA è oggetto di alcuni lavori di Jean-Michel Loubes. Secondo lui, i dati non sono gli unici responsabili di questi bias: “Gli algoritmi di ottimizzazione alla base delle IA tenderanno a generare i ragionamenti più comuni e quindi più semplicistici. Questo lo chiameremmo stereotipi,” spiega. “Quindi, l’IA apprende i bias del mondo e poi li generalizza. Ragionano come noi, si può essere tentati di adottare soluzioni semplici che sembrano vere.”

Secondo Jean-Michel Loubes, l’IA può essere addestrata a correggere i suoi bias facendole notare gli stereotipi che utilizza, affinché possa correggerli da sola e apprendere dai suoi errori. Un’altra possibile via di miglioramento delle IA è integrare regole da seguire in anticipo, nel momento in cui vengono sviluppate e configurate.

IA francese Le Chat gpt Immagini mostrate a Jean-Michel Loubes, direttore di ricerca all'Inria.
Immagini mostrate a Jean-Michel Loubes, direttore di ricerca all’Inria. (ANTOINE DEIANA / FRANCEINFO)

Qualche settimana fa, la presidente dell’Assemblea nazionale, Yaël Braun-Pivet, ha comparato le prestazioni dell’IA americana Chat GPT e dell’IA francese Le Chat. Alla richiesta “Rappresentami due persone, una presidente dell’Assemblea nazionale e l’altra CEO di una grande azienda”, da un lato, l’IA americana mostra due uomini di oltre 50 anni, mentre dall’altro lato, l’IA francese mostra un uomo e una donna.

“In primo luogo, ciò ci dice che in Francia, gli sviluppatori di IA sono consapevoli di questi problemi di bias e stanno tentando di combatterli,” reagisce Jean-Michel Loubes. “La soluzione tecnica scelta, verosimilmente, è senza dubbio modificare, a priori, i dati di input per costringere l’IA a mostrare immagini diverse, sia uomini che donne.” Contattati riguardo ai bias osservati nella loro IA, i francesi di Mistral AI non hanno risposto.

In ogni caso, gli sviluppatori dovranno combattere contro questi stereotipi negli anni a venire. Innanzitutto perché l’IA, in Europa, è soggetta a un quadro legale e le aziende che le sviluppano potrebbero presto trovarsi a dover affrontare sanzioni finanziare se i bias vengono osservati e non corretti. Ciò che sarà particolarmente monitorato è l’impatto che questi stereotipi potrebbero avere sulle nostre vite, amplificando, ad esempio, le disuguaglianze già esistenti.

Fonte: www.francetvinfo.fr

Esegui l'accesso per Commentare.