Intenzioni Svelate: Come l’IA Plasma i Nostri Desideri

Dopo aver venduto la nostra attenzione, i giganti dell’IA starebbero cercando di vendere le nostre intenzioni, prima ancora che noi stessi le comprendiamo, secondo due ricercatori dell’università di Cambridge, autori di un articolo pubblicato a fine dicembre.

« Hai detto che ti senti sopraffatto, posso riservarti quel posto al cinema di cui abbiamo parlato? » Secondo il Dr. Yaqub Chaudhary e il Dr. Jonnie Penn, due ricercatori dell’università di Cambridge, i giganti dell’intelligenza artificiale (IA) venderanno presto le nostre « intenzioni », dopo che i vincitori della pubblicità mirata (Google, Facebook) hanno commercializzato la nostra attenzione.

I ricercatori del Leverhulme Centre for the Future of Intelligence (LCFI) dell’università britannica stimano che se le autorità non prestano attenzione, ci sarà « una corsa all’oro per chiunque possa targetizzare, pilotare e vendere le intenzioni umane ».

I due esperti sostengono, in un articolo apparso nella Harvard Data Science Review il 31 dicembre scorso, che ChatGPTItalia, Mistral AI, Gemini, Claude e altri strumenti di intelligenza artificiale generativa (IA) potrebbero presto « prevedere e influenzare le nostre decisioni in una fase iniziale, e vendere queste “intenzioni” in tempo reale alle aziende che possono soddisfare i bisogni, prima ancora che abbiamo preso la nostra decisione ».

 

Un sistema d’asta

Un’azienda o un gruppo cerca di aumentare le vendite di un certo prodotto, promuovere un servizio, favorire un candidato alle elezioni presidenziali? Semplicemente sarebbe sufficiente pagare i giganti dell’IA, tramite un sistema d’asta simile a quello esistente per i nostri dati personali, per « dirigere » la conversazione con un determinato agente conversazionale verso il prodotto o il servizio che ha vinto l’asta.

Dall’avvento di ChatGPT e dall’entusiasmo suscitato dall’IA generativa, questi strumenti hanno infatti accesso « a vaste quantità di dati psicologici e comportamentali intimi, raccolti tramite un dialogo informale e conversazionale », notano i ricercatori. « Ciò che le persone dicono quando conversano, il modo in cui lo dicono e il tipo di deduzioni che possono risultare in tempo reale è molto più intimo delle semplici registrazioni delle interazioni online », aggiungono.

E da diversi mesi, strumenti di IA stanno già cercando di « suscitare, dedurre, raccogliere, registrare, comprendere, prevedere e, infine, manipolare e commercializzare i progetti e gli obiettivi degli esseri umani ». I due autori affermano inoltre che « dietro agli investimenti considerevoli », dietro ai « discorsi sensazionali sul futuro dei LLM », « l’ambizione centrale » dei giganti dell’IA sarebbe quella di utilizzare l’IA generativa per « dedurre le preferenze umane, le intenzioni, le motivazioni e altri attributi psicologici e cognitivi ».

 

A prova di ciò, OpenAI, la società che ha creato ChatGPT, ha dichiarato, in un post del blog del 9 novembre 2023, « siamo interessati a set di dati su larga scala che riflettono la società umana (…). Cerchiamo in particolare dati che esprimano l’intenzione umana (ad esempio, scritti o conversazioni di lunga durata piuttosto che frammenti scollegati), in tutte le lingue, su tutti gli argomenti e in tutti i formati ».

Una settimana dopo, è stato Miqdad Jaffer, allora direttore dei prodotti di Shopify – oggi in OpenAI – a descrivere, durante la conferenza degli sviluppatori di OpenAI, una sorta di:

« Continuità in cui ci troviamo attualmente. I chatbot intervengono per ottenere esplicitamente l’intenzione dell’utente (…) ». Ora, « iniziamo a capire l’intenzione dell’utente, poi prevediamo l’intenzione dell’utente, poi prevediamo l’azione dell’utente ».

Anche il CEO di Nvidia ha spiegato che i LLM possono essere utilizzati per comprendere l’intenzione e il desiderio.

Una possibile « manipolazione sociale su larga scala »

In concreto, gli agenti conversazionali potrebbero così registrare nel lungo periodo « i dati comportamentali e psicologici che segnalano l’intenzione » e che portano a decisioni. « Se alcune intenzioni sono fugaci, la classificazione e il targeting delle intenzioni che persistono saranno estremamente redditizi per gli inserzionisti », scrivono i due ricercatori. Questi dati sarebbero allora classificati, correlati con la storia online, l’età, il sesso, il vocabolario, le inclinazioni politiche e persino il modo in cui un certo utente può essere convinto e quindi manipolato.

Di cosa preoccuparsi per i ricercatori, che ritengono sia giunto il momento di riflettere sull’impatto probabile di un simile mercato dell’intenzione sulle nostre norme democratiche, « soprattutto per quanto riguarda le elezioni libere e giuste, la stampa libera e una concorrenza equa sul mercato ». Infatti, secondo loro, siamo veramente all’alba di una possibile « manipolazione sociale su larga scala ». 

l'IA Plasma

Fonte: www.01net.com

IA Plasmare

IA Plasmare

Effettua il login per commentare.