Scandalo Digitale: Noyb Insegne OpenAI per Diffamazione nei Confronti di un Cittadino Norvegese

 

I loghi di OpenAI e ChatGPT.

Il Dilemma della Diffamazione nell’Intelligenza Artificiale

L’ONG austriaca NOYB (None of Your Business), che difende la vita privata digitale dei cittadini, ha presentato un reclamo giovedì 20 marzo all’agenzia norvegese per la protezione dei dati, Datatilsynet, accusando OpenAI di diffamazione: il suo chatbot ChatGPT avrebbe risposto alla domanda «chi è Arve Hjalmar Holmen?» affermando che questo cittadino norvegese aveva assassinato due dei suoi figli.

Secondo l’ONG, il chatbot affermava inoltre che il caso aveva «scioccato la comunità locale e nazionale, ed [era] stato ampiamente coperto dai media a causa della sua natura tragica». Si precisava che Holmen era stato condannato a una pena detentiva di ventuno anni.

Informazioni del tutto false secondo l’ONG, mescolate a fatti veri: il robot non si sbagliava quando specificava che l’uomo era padre di tre ragazzi. DiQui l’ansia della persona diffamata: «Alcuni pensano che non ci sia fumo senza fuoco. Ciò che mi spaventa di più è che qualcuno possa leggere questa risposta e credere che sia vera», riporta l’ONG in un comunicato.

NOYB spiega al Monde che il problema «è emerso nell’agosto 2024. Siamo stati in grado di riprodurlo fino al giorno in cui la versione gratuita di ChatGPT ha iniziato a rispondere regolarmente a domande su persone basando le sue risposte su informazioni raccolte su Internet anziché fare affidamento esclusivamente su quelle presenti nei suoi neuroni artificiali. L’accusa è quindi scomparsa, ma l’associazione teme che l’errore sia ancora presente nei neuroni artificiali del robot.

Precedenti negli Stati Uniti

La politica sulla privacy europea di OpenAI indica che è possibile contattare l’azienda in caso di «informazioni inaccurate sul piano fattuale che ti riguardano» e, ricorda NOYB, le condizioni di utilizzo di un abbonamento ChatGPT contengono una clausola di non responsabilità che afferma che lo strumento «può fare degli errori», lasciando a carico dell’utente il compito di «verificare le informazioni importanti».

Tuttavia, secondo Joakim Söderberg, avvocato specializzato nella protezione dei dati per NOYB, «il regolamento generale sulla protezione dei dati (GDPR) è chiaro». In Europa, «i dati personali devono essere accurati(…) Non puoi diffondere false informazioni e, alla fine, aggiungere un piccolo avvertimento dicendo che tutto ciò che hai detto potrebbe non essere vero». Interrogato su questo punto, OpenAI non ha immediatamente risposto alle richieste del Monde.

In passato, negli Stati Uniti, OpenAI ha già segnalato dichiarazioni diffamatorie nei confronti di figure pubbliche. Secondo il Washington Post, il chatbot aveva falsamente accusato un professore di diritto di molestie sessuali. Secondo Reuters, ChatGPT aveva sostenuto che un sindaco australiano fosse stato imprigionato per corruzione. E, secondo il media americano ABC, l’IA di Microsoft, Copilot, aveva accusato un giornalista tedesco di essere un pusher, un criminale violento e un molestatore di bambini.

Fonte: www.lemonde.fr

Effettua il login per commentare.