Quando ChatGPT involontariamente svela segreti inaspettati

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

Quando ChatGPT svela involontariamente segreti inaspettati

Uno studio recente ha evidenziato una falla di sicurezza che ha permesso a ricercatori di costringere ChatGPT, un chatbot basato sul modello linguistico GPT, a rivelare dati sensibili provenienti dal suo corpus di addestramento. Sebbene OpenAI, la società dietro ChatGPT, abbia recentemente corretto questa falla, essa solleva gravi preoccupazioni per la sicurezza dei modelli di intelligenza artificiale.

Rivelazione di dati sensibili

Secondo lo studio, sfruttando questa vulnerabilità, alcune richieste possono portare ChatGPT a divulgare informazioni sensibili come nomi, numeri di telefono, indirizzi email e persino informazioni personali identificabili privatamente (PII). I ricercatori sono riusciti a estrarre coordinate personali di un CEO, così come identificatori di social media, URL, indirizzi Bitcoin e persino contenuti espliciti provenienti da siti di incontri.

Funzionamento dell’attacco

I ricercatori hanno scoperto che richieste apparentemente assurde, come chiedere al chatbot di ripetere una parola o una frase all’infinito, inducono ChatGPT a comunicare i dati di addestramento con cui è stato creato. Questa vulnerabilità è stata sfruttata per estrarre dati sensibili dal modello linguistico.

Raccomandazioni dei ricercatori

Di fronte a questa falla di sicurezza, i ricercatori invitano alla prudenza da parte delle aziende che sviluppano modelli di intelligenza artificiale. Raccomandano l’implementazione di test rigorosi, sia interni che condotti da organizzazioni esterne, per individuare e correggere tali vulnerabilità. Sottolineano anche l’importanza di misure di protezione estreme per limitare i rischi di divulgazione di dati sensibili.

Azioni di OpenAI

OpenAI ha corretto la vulnerabilità individuata dai ricercatori, impedendo così a ChatGPT di rivelare dati sensibili in risposta a richieste malevole. Tuttavia, rapporti recenti suggeriscono che vulnerabilità simili persistono, evidenziando la necessità di una vigilanza continua nel campo della sicurezza dei modelli di intelligenza artificiale.

Conclusione

Questo studio evidenzia le sfide legate alla sicurezza dei modelli di intelligenza artificiale, in particolare quelli basati su ampie quantità di dati di addestramento. È cruciale che aziende e ricercatori continuino a collaborare per identificare, correggere e prevenire le falle di sicurezza, garantendo l’integrità e la riservatezza dei dati trattati da questi modelli.

Fonte  : 404 Media

➡️ACCEDI A CHATGPT IN ITALIANO  CLICCANDO QUI ! ⬅️

Esegui l'accesso per Commentare