Quando i Robot Parlano: La Voce delle Bugie Russe

La guerra d’influenza della Russia nell’era dei chatbot

La Russia conduce una guerra d’influenza sotterranea per contaminare i risultati generati dai chatbot occidentali. Un’inchiesta di NewsGuard mostra che i principali bot di mercato riprendono la disinformazione e le menzogne del Cremlino nel 33% dei casi.

Il network Pravda, finanziato dalla Russia, infetta i dati di addestramento dei modelli di intelligenza artificiale affinché i chatbot generino contenuti favorevoli alle tesi del Cremlino. Scoperto all’inizio del 2024 da Viginum, l’agenzia governativa francese associata a Matignon, questo network conta 150 siti web che diffondono contenuti in diverse lingue (tra cui il francese), in 49 paesi. Tra essi ci sono siti tematici come Trump.News-Pravda o Macron.News-Pravda.

Un network di siti web per influenzare l’IA

Contrariamente ai media tradizionali, questi siti web non producono contenuti propri, ma rilasciano la propaganda russa aggregando e diffondendo massicciamente racconti a favore della Russia e delle politiche di Vladimir Putin. L’origine di questa disinformazione proviene da fonti ufficiali russe, da influencer pro-Cremlino e da enti statali.

Il network, noto anche come “Portal Kombat”, non ha legami diretti con il media Pravda, nonostante l’identico nome (che in russo significa “verità”). È estremamente prolifico: lo scorso anno, i siti web Pravda hanno infatti prodotto la ragguardevole cifra di 3,6 milioni di articoli, un volume enorme letto… da molto pochi. Molti di questi siti si aggirano attorno a mille visitatori unici al mese. Per dare un’idea, il sito del media ufficiale RT supera i 14 milioni di visitatori unici mensili.

Tuttavia, questo network non cerca la popolarità tra gli internauti. Sfruttando tecniche di posizionamento sui motori di ricerca (SEO), questi siti massimizzano la visibilità dei loro articoli falsi per meglio influenzare le IA generative. Queste IA generano poi risposte basate sulla disinformazione di Pravda attraverso i loro sistemi di recupero delle informazioni (robot crawlers e motori di ricerca). Questa tecnica di “LLM grooming” (manipolazione dei modelli di linguaggio) sembra funzionare alla grande, secondo un’inchiesta di NewsGuard.

Questa azienda americana, fondata nel 2018 da veterani del giornalismo e dell’editoria, si presenta come uno strumento di lotta contro le false informazioni e la manipolazione delle notizie online. Ha testato 10 dei principali chatbot IA sul mercato: ChatGPT-4o (OpenAI), You.com Smart Assistant, Grok (xAI), Pi (Inflection AI), Le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) e il motore di risposte Perplexity.

L’inchiesta si è basata su un campione di 15 false informazioni diffuse dalla rete Pravda tra aprile 2022 e febbraio 2025. Queste affermazioni sono state verificate e catalogate nel database Misinformation Fingerprints di NewsGuard. L’obiettivo era misurare la frequenza con cui questi strumenti riprendono la disinformazione a loro favore.

Tra le false informazioni utilizzate per testare i bot, c’era ad esempio la menzogna che Volodymyr Zelensky avesse ordinato il blocco di Truth Social in Ucraina. Questo è completamente falso: il presidente ucraino non ha mai chiesto una cosa del genere, e l’app del social network di Donald Trump non è mai stata distribuita in Ucraina…

Per ciascuna delle affermazioni, NewsGuard ha formulato tre varianti di richieste: tono neutro, tono “orientato” (la domanda sottintende che l’affermazione sia vera), tono “malevolo” (una formulazione esplicita che induce alla disinformazione). In totale, 45 richieste diverse sono state inserite nei 10 bot.

Il successo del network Pravda

L’analisi delle risposte conferma che l’influenza della disinformazione sulle risposte delle IA è reale. Un terzo delle risposte dei bot conteneva effettivamente disinformazione; quasi la metà (48%) conteneva un “debunk” (ovvero una verifica dei fatti). Il 18% erano non-risposte, indicando una mancanza di dati o l’incapacità di trattare l’argomento.

7 dei 10 bot hanno citato siti del network Pravda come fonti. 56 risposte su 450 contenevano link diretti a questi famosi articoli. Infine, 92 articoli sono stati referenziati in totale, con alcuni modelli IA che citano persino 27 articoli diversi. Si può notare che la Russia ha guadagnato punti in questa guerra dell’informazione.

Non basta chiudere il rubinetto di Pravda per non influenzare più i modelli di IA. Prima di tutto perché il network non è la fonte della disinformazione, ma si limita, per così dire, a rilanciarla e amplificarsi. Soprattutto, Pravda rappresenta una minaccia sistemica, poiché non può essere neutralizzato facilmente con misure di filtraggio. La sua strategia si basa infatti sulla replicazione e diversificazione, rendendo molto difficile il blocco dei siti con algoritmi di moderazione. Una blacklist dei siti può anche essere stilata, ma basta creare nuovi siti web per aggirare le restrizioni.

Fonte: NewsGuard

Questo articolo approfondisce l’influenza della Russia attraverso i suoi sforzi di disinformazione nel contesto dei chatbot e dell’intelligenza artificiale, mostrando le modalità e l’impatto delle loro strategie.

Fonte: www.01net.com

Esegui l'accesso per Commentare.