ChatGPT e Sorveglianza: Il Divieto di OpenAI ai Controllori Cinesi

OpenAI combatte la disinformazione con ChatGPT.
OpenAI, l’editore di ChatGPT, ha escluso dalla sua piattaforma diversi utenti appartenenti a un network di attori malintenzionati, che probabilmente operano dalla Cina. In un rapporto di sicurezza pubblicato venerdì 21 febbraio, l’azienda ha dichiarato di aver scoperto un’operazione di disinformazione e la creazione di uno strumento di monitoraggio dei social network.
I team di sicurezza dell’azienda americana hanno rilevato questi utenti monitorando l’uso di ChatGPT, il suo famoso agente conversazionale. Studiano l’attività di un gruppo di account che utilizzano la lingua cinese e operano negli orari lavorativi cinesi; OpenAI è riuscita a ricostruire le caratteristiche dello strumento su cui stavano lavorando: un programma che analizza in tempo reale i messaggi su Facebook, X, YouTube, Instagram, Telegram e Reddit, mirando in particolare agli appelli per manifestazioni a favore dei diritti umani.
Denominato “Peer Review” da OpenAI, questo strumento avrebbe il compito di segnalare questi messaggi alle autorità cinesi e alle loro ambasciate all’estero. Tra i paesi monitorati ci sono gli Stati Uniti, la Germania e il Regno Unito. Tra i temi sorvegliati ci sono il sostegno agli Uiguri e la diplomazia nella regione Indo-Pacifica.
ChatGPT veniva utilizzato da questi attori per redigere il materiale di marketing di “Peer Review”, descrivere i suoi moduli in dettaglio e correggere gli errori nel suo codice informatico (che sembra utilizzare Llama di Meta, un concorrente open source di ChatGPT). OpenAI non è riuscita a determinare se questo strumento fosse utilizzato su larga scala.
Traduzione di articoli di propaganda
OpenAI ha anche potuto seguire l’attività di un secondo network di attori cinesi impegnati in operazioni di disinformazione. Questi utilizzano ChatGPT per generare brevi messaggi pubblicati sui social media, denigrando in particolare i post su X del dissidente Cai Xia, ex professoressa presso la scuola centrale del Partito Comunista Cinese (PCC).
Presenti al summit per l’intelligenza artificiale organizzato a Parigi all’inizio di febbraio, Ben Nimmo, investigatore principale di OpenAI, aveva menzionato un esempio simile disattivato dalle sue squadre non molto tempo fa. Utenti cinesi avevano utilizzato ChatGPT per rinforzare la campagna di disinformazione “Spamouflage”, utilizzando lo strumento di intelligenza artificiale per scrivere tweet favorevoli al PCC e ostili all’Occidente, oltre a creare siti critici verso i dissidenti all’estero. Sono stati scoperti dai team di OpenAI poiché avevano utilizzato gli stessi abbonamenti ChatGPT per barare durante gli esami per promozioni interne al Partito Comunista.
Il gruppo che prende di mira Cai Xia è probabilmente diverso. I suoi membri hanno utilizzato ChatGPT per produrre articoli lunghi criticando gli Stati Uniti, che sono riusciti a pubblicare in una dozzina di importanti giornali messicani, peruviani ed equadoriani – a volte sotto forma di contenuti sponsorizzati. Più precisamente, l’IA è stata utilizzata per tradurre e ampliare articoli cinesi esistenti, enfatizzando argomenti di discordia come la violenza politica, la discriminazione, il sessismo o la politica estera, spiegandoli attraverso la debolezza del leadership politico americano.
OpenAI pubblica da oltre un anno rapporti di sicurezza il cui obiettivo è, tra l’altro, “prevenire l’uso di strumenti di IA da parte di regimi autoritari per rafforzare il loro potere o controllo sui propri cittadini, minacciare o forzare altri Stati o condurre operazioni di influenza sotto copertura”. I suoi investigatori usano a loro volta strumenti basati sull’IA.
Questo è un articolo tradotto e strutturato con tag HTML per principianti, che descrive le recenti scoperte di OpenAI riguardanti l’uso malevolo dell’intelligenza artificiale da parte di utenti cinesi.
Fonte: www.lemonde.fr