Scoperta da OpenAI del suo recente strumento Examinare per individuare le illustrazioni prodotte dall’IA
La validazione dei contenuti online è diventata una preoccupazione cruciale con la proliferazione dell’intelligenza artificiale, che consente di generare, tra le altre cose, immagini fittizie di persone.
Data di pubblicazione: 10/05/2024 17:15
Tempo di lettura: 1 minuto
Descrizione dell’immagine ChatGPT, lo strumento di intelligenza artificiale sviluppato dalla società americana OpenAI. (JEAN-MARC BARRERE / HANS LUCAS / AFP)
Un antidoto alle proprie creazioni. OpenAI, la giovane azienda all’origine degli strumenti di intelligenza artificiale generativi famosi ChatGPT e Dall-E, offre ora la possibilità ai ricercatori di testare uno strumento progettato per identificare se le illustrazioni digitali sono state prodotte da programmi di IA. Secondo test interni su una versione precedente di questo strumento, “identifica correttamente circa il 98% delle illustrazioni di Dall-E 3. Meno dello 0,5% delle immagini non generate da software di IA sono state erroneamente associate a Dall-E 3”, ha sottolineato la società californiana.
La start-up, che gode di un forte sostegno finanziario da parte di Microsoft, ha comunque notato che il suo software era meno efficace quando le illustrazioni create con Dall-E 3 venivano successivamente modificate o provenivano da altri modelli. Un segno distintivo per individuare i contenuti prodotti dall’IA.
OpenAI ha inoltre rivelato che ora apporrà filigrane sulle immagini di IA, al fine di rispettare gli standard della Coalition for Content Provenance and Authenticity (C2PA), un’iniziativa dell’industria tecnologica che stabilisce norme tecniche per determinare la provenienza e l’autenticità dei contenuti digitali.
Il mese scorso, il gruppo Meta (Facebook, Instagram) ha annunciato che avrebbe iniziato a etichettare i contenuti creati dall’IA a partire dal mese di maggio utilizzando lo standard C2PA. Anche il colosso Google si è unito all’iniziativa.
La validazione dei contenuti online è diventata una questione fondamentale con la diffusione dell’IA generativa, che consente di produrre una varietà di contenuti su richiesta, inclusi falsi immagini di persone o falsi registrazioni audio a scopo ingannevole, ad esempio.
Fonte: www.hdblog.it