Intelligenza Artificiale: Il Nuovo Campo di Battaglia della Disinformazione

L’intelligenza artificiale (IA) è in espansione in tutto il mondo, suscitando tanto fascino quanto timore. Oggi diverse voci si levano per chiedere un migliore controllo su questa tecnologia, che viene spesso utilizzata nelle campagne di disinformazione e denigrazione, con un focus particolare verso le donne.
I deepfake utilizzati per influenzare le elezioni e i chatbot che diffondono infox rappresentano uno dei grandi pericoli legati all’uso crescente dell’IA nel mondo dell’informazione.
Deepfake pornografici contro le donne politiche
Il rapido sviluppo di questa tecnologia, di cui si discute in un summit mondiale in corso a Parigi, ha alimentato negli ultimi anni l’espansione della disinformazione, fornendo nuovi e potenti strumenti.
In Slovacchia, nel 2023, un video ha fatto scalpore: si udiva il capo di un partito pro-europeo ammettere che le elezioni legislative sarebbero state manipolate. Era un deepfake, un contenuto falsificato tramite IA, che ha influenzato gli elettori.
In tutto il mondo, diversi politici hanno già subito le conseguenze di questi procedimenti, aventi un alto potenziale di viralità sui social media.
È il caso dell’ex presidente americano Joe Biden, la cui voce è stata falsificata per consigliare agli elettori di non votare. O ancora, di Emmanuel Macron, che annunciava le sue dimissioni in un video molto condiviso con un audio manipolato.
Donne politiche negli Stati Uniti, in Italia, nel Regno Unito e in Pakistan sono state anch’esse vittime di immagini di contenuto pornografico generate da IA. Una tendenza inquietante, secondo i ricercatori.
I deepfake sessuali prendono di mira anche celebrità come la cantante americana Taylor Swift, e tutte le donne sarebbero vulnerabili, avverte il progetto American Sunlight, un gruppo di ricerca sulla disinformazione. L’IA è anche al centro di operazioni di ingerenza digitale su larga scala.
Le campagne prorusse chiamate Doppelgänger o Matriochka sono tra i casi più eclatanti: i loro autori hanno ampiamente utilizzato profili falsi, dei bot, per pubblicare contenuti generati da IA, con l’obiettivo di minare il sostegno occidentale all’Ucraina.
“Ciò che è nuovo è l’ampiezza e la facilità con cui una persona con pochissime risorse finanziarie e di tempo può diffondere contenuti falsi che, peraltro, risultano sempre più credibili e sono sempre più difficili da rilevare”, spiega Chine Labbé, caporedattore dell’organizzazione Newsguard, che analizza l’affidabilità dei siti e contenuti online.
“Inquinamento del web”
Nessun campo sfugge a questi contenuti falsi: videoclip musicali falsificati sono spesso messi in circolazione, così come foto inventate di eventi storici creati in pochi clic.
Su Facebook, profili pubblicano immagini commoventi generate da IA per ottenere coinvolgimento. L’obiettivo non è necessariamente diffondere una falsa informazione, ma piuttosto catturare l’attenzione a fini commerciali, o addirittura preparare truffe una volta identificati gli utenti creduloni.
Un altro scenario: nel 2024, sono stati diffusi deepfake di medici famosi, come Michel Cymes in Francia, per promuovere rimedi che non avevano mai sostenuto.
Alla fine di dicembre, mentre la storia di un uomo che ha dato fuoco a una donna nella metropolitana di New York era in prima pagina negli Stati Uniti, un’immagine presunta della vittima ha circolato ampiamente. Era stata generata da IA, e il dramma strumentalizzato, al fine di rimandare a siti di criptovalute.
“Oltre al rischio di disinformazione, c’è quello di inquinamento del web: non si sa mai se si è di fronte a un contenuto che è stato verificato, redatto da un essere umano rigoroso, o se è generato da un’IA senza che nessuno si preoccupi della veridicità”, osserva Chine Labbé.
Ogni evento al centro delle news suscita così un flusso di immagini generate online, come gli incendi su larga scala a Los Angeles all’inizio del 2025, durante i quali false foto del pannello “Hollywood” in fiamme o di un Oscar nelle ceneri hanno fatto il giro del mondo.
I chatbot alla moda, come l’americano ChatGPT, possono anch’essi contribuire alla diffusione di infox, sottolinea Chine Labbé di Newsguard: “tendono a citare prima fonti generate da IA, quindi è il serpente che si morde la coda”.
L’arrivo del cinese DeepSeek, che rilancia le posizioni ufficiali cinesi in parte delle sue risposte, non fa altro che rafforzare la necessità di imporre delle norme a questi strumenti, sostiene l’esperta. Dovrebbero “imparare a riconoscere le fonti affidabili dalle fonti di propaganda”.
Fonte: www.europe1.fr