L’IA ora supera i test per distinguere gli umani dai robot.
Probabilmente vi è già capitato, navigando su Internet e cercando di accedere a un sito, di dover rispondere a un questionario destinato a stabilire che non siete un robot, ma una persona reale. Potrebbe trattarsi di copiare una serie di numeri o lettere, oppure di cliccare su immagini che contengono un lampione o una vetrina. Questo è il cosiddetto test CAPTCHA – un acronimo che in inglese significa “Completely Automated Public Turing test to tell Computers and Humans Apart”.
Alan Turing, brillante matematico britannico, ha stabilito nel 1950 un test basato sulla capacità di una macchina di imitare la conversazione umana. Il termine CAPTCHA è un marchio commerciale registrato nel 2000 dalla Carnegie Mellon University negli Stati Uniti. Questi piccoli moduli servono principalmente a evitare che automi si connettano in gran numero e saturino l’accesso a un sito web, per esempio.
Google ha creato il proprio modello di CAPTCHA nel 2009. Dal 2012, dopo essere stato un sistema di riconoscimento del testo, Google lo ha sostituito con immagini provenienti soprattutto da fotografie di spazi pubblici, scattate tramite Google Street View. Google sfrutta anche i nostri clic per addestrare le sue intelligenze artificiali grazie alle risposte degli utenti. Per esempio, quando confermiamo la presenza di un semaforo o di un animale nell’immagine.
A metà settembre 2024, tre ricercatori del Politecnico Federale di Zurigo in Svizzera hanno sviluppato un metodo che permette di ingannare al 100% i test ReCaptcha di Google. Fino a quel momento, i migliori risultati erano compresi tra il 68% e il 71% di successo.
Quali cambiamenti porta questa scoperta? Riduce il livello di sicurezza dei siti.
Può falsare i dati di traffico, sollevando dubbi sulla reale affluenza, potenzialmente costituita da visite di automi, rendere possibile la creazione automatizzata di un gran numero di account utente falsi, utilizzati poi per truffe, oppure facilitare l’accesso ai dati, poiché un robot potrebbe entrare in un sito, navigare e raccogliere informazioni. Una questione rilevante, soprattutto perché i dati vengono oggi utilizzati per alimentare i modelli di intelligenza artificiale.
Le principali piattaforme di IA hanno previsto di vietare utilizzi solitamente considerati illeciti. Tuttavia, la creatività umana cerca sempre di aggirare questi blocchi.
Nel 2023, esperimenti di laboratorio condotti da OpenAI su ChatGPT-4 hanno dimostrato che l’IA poteva proporre scenari per ingannare questi sistemi CAPTCHA. L’algoritmo è stato poi corretto per evitare tali abusi, ma è un lavoro continuo per adattarsi a potenziali usi fraudolenti.
Il rischio è che vengano elaborati dispositivi che rendano più complicato l’accesso a un sito Internet, rallentando la navigazione e complicando l’esperienza digitale. Inoltre, versioni più complesse potrebbero mettere in difficoltà gli utenti con disabilità visive, già penalizzati da questi test di riconoscimento delle immagini.
La sfida è arricchire il ventaglio delle tecnologie utilizzate per rilevare se si tratta di un essere umano o di un robot, come l’analisi della cronologia di navigazione o dei movimenti del mouse, che potrebbero risultare troppo meccanici. Alcuni siti stanno valutando di abbandonare i CAPTCHA, tornando a classiche conferme via e-mail o SMS.
Questi studi universitari mostrano ancora una volta l’eterna lotta digitale tra scudo e spada, per creare misure di protezione che evolveranno con l’ingegnosità degli attaccanti, senza però scoraggiare l’utente onesto. Un equilibrio, in fondo, molto umano.
Fonte: www.wired.it