Inganni 2.0: Come l’Intelligenza Artificiale Rivoluziona la Truffa tra i Banchi di Scuola
Due anni dopo l’apertura al pubblico di ChatGPT, molti studenti hanno imparato a usarlo, a volte come semplice aiuto per la scrittura, a volte per completare interi compiti al posto loro. Un’evoluzione che costringe già gli insegnanti ad adattare la loro correzione o i loro esercizi.
“Ho filmato l’IA mentre faceva il compito al mio posto e ho postato il video su Snapchat. Ovviamente, ha interessato gli altri!” Tom* è in classe quinta quando l’intelligenza artificiale (IA) generativa irrompe sulla scena, con l’uscita di ChatGPT nel novembre 2022. Un programma che può redigere istantaneamente testi credibili e coerenti su qualsiasi domanda. E di cui lo studente coglie facilmente il potenziale: “Mi annoiavo in aula di fisica, ho dato l’esercizio all’IA e mi ha restituito una risposta… Ho subito pensato che potesse aiutarmi!”
Come lui, molti imbroglioni in erba hanno progressivamente adottato lo strumento, e non solo negli studi superiori. Al liceo e persino alle scuole medie, l’IA funge già da supporto, assistente di lusso, se non di più per alcuni studenti pronti a tutto per ottenere i migliori voti. E pone agli insegnanti problemi talvolta irrisolvibili.
“Ne avevo sentito parlare al momento dell’uscita, ma senza pensare di provarlo, poi ho visto sempre più video su TikTok che lo mostrano”, ricorda Dan, che ha appena concluso il quinto anno. Quanti studenti hanno seguito questo esempio? “Per i commenti di testo in filosofia, la metà della classe usava ChatGPT!”, esulta il neodiplomato. Impossibile quantificare precisamente il fenomeno, poiché non esiste alcuno studio al riguardo per quanto riguarda le scuole medie o superiori in Francia. Ma anche perché le IA possono essere utilizzate in modo più sottile rispetto a chiedere loro di fare tutto il lavoro. “Lo utilizzo a volte per ripassare e allenarmi, racconta Colombe, studentessa di seconda a Parigi. Generando domande tipo prima di un esame, chiedendogli di riassumere i temi da ricordare…” Nulla di riprovevole, in quell’occasione.
Il ricorso all’IA diventa più discutibile quando è utilizzato per risolvere un esercizio destinato a essere corretto e valutato da un insegnante. Rémy, che a scuola si è “molto presto stancato”, ammette di averla “utilizzata parecchio in francese e filosofia” al liceo, specialmente di fronte all’incubo di molti alunni: la disserazione. “Davo il massimo di dettagli sulla nostra lezione e chiedevo una struttura, racconta lo studente. È una sorta di copilota.”
“Ma tutto questo resta il mio lavoro personale”, sostiene Rémy. Giura che scriveva lui stesso il testo finale e verificava ogni volta la veridicità delle informazioni generate dall’IA. Secondo lui, il metodo ha dato i suoi frutti: “Man mano che lo usavo, riuscivo a riprendere alcune idee o alcuni piani durante le verifiche [in aula], e a comprendere meglio l’esercizio.”
Resta l’uso più disonesto, in cui l’intenzione di imbrogliare da parte dello studente – a volte guidato dai genitori – è più che evidente: il copia e incolla di un testo prodotto da questo assistente. “Per i quiz, è semplice, basta mettere l’intestazione in ChatGPT e prendere le risposte”, assicura Tom. Ma l’IA può sbagliarsi. “L’abbiamo usata con mio figlio in prima media per un esercizio in cui dovevamo associare a ogni pianeta del sistema solare un frutto, rispettando le proporzioni”, racconta Nicolas, genitore di un alunno. “Abbiamo passato la giornata senza riuscirci…”
“ChatGPT fornisce una risposta come un’altra. In questo caso, era errata. Ma non avevamo alcuna garanzia di fare meglio!”
Nicolas, genitore di un alunno di prima mediaa franceinfo
Questo utilizzo è ancora più rischioso per gli esercizi di scrittura, dove il copia e incolla di un lungo testo, troppo palese, è facilmente individuabile da un insegnante almeno un minimo accorto. “Ci sono segnali che possono metterci in allerta, assicura a franceinfo Maxime, un insegnante di scienze digitali e tecnologia in un liceo del Rodano. Quando lo studente consegna dieci frasi di risposta a una domanda che ne richiedeva solo una, senza alcun errore di ortografia quando di solito ne fa. O quando afferma fatti o numeri di cui non troviamo la fonte da nessuna parte.” Gli studenti intervistati da franceinfo citano numerosi casi di compagni smascherati con le loro risposte scritte alla virgola per chatGPT. È particolarmente facile nelle scuole medie, poiché “le IA scrivono con ‘parole da grandi’”, osserva Nicolas, il genitore di un alunno di prima media.
Ma alcuni sostenitori di ChatGPT hanno anche imparato a raffinare il loro metodo. Ricontrollare ciò che scrive l’IA, darle il massimo di contesto nella richiesta iniziale e soprattutto “fare le cose per fasi”, assicura Tom: “Per una dissertazione, prima chiedo delle problematiche, poi un’introduzione, poi un piano adattato, poi delle idee, parte per parte…” Lo studente spinge poi il vizio fino ad aggiungere delle espressioni che gli sono proprie, “e perfino degli errori di ortografia”.
Di fronte a questi espedienti digitali, gli insegnanti non hanno altra scelta che rimanere vigili. Le presentazioni orali in aula sono un buon indicatore per rilevare un uso eccessivo dell’IA. “Alcuni studenti mi avevano letto un testo di cui evidentemente non comprendevano tutto, con un piano che andava bene, ma argomenti estremamente generici e un vocabolario di universitario stanco”, ricorda Jean-Marie, insegnante di scienze digitali e tecnologia in un liceo nella regione dell’Ile-de-France.
“Non padroneggiavano il tema. Ho fatto loro delle domande, non sono riusciti a rispondere… E non hanno negato di aver usato ChatGPT.”
Jean-Marie, insegnante in un liceo dell’Ile-de-Francea franceinfo
Di fatto, gli insegnanti intervistati da franceinfo descrivono un clima di costante sospetto al momento delle correzioni. Al rischio di commettere errori, poiché è impossibile provare in modo certo che uno studente ha utilizzato un’IA generativa di testo. “I ‘rilevatori di IA’ sul mercato non sono affidabili”, ricorda Philippe*, professore di scienze naturali e referente digitale in una scuola media dell’Isère.
Così, uno studente del Haut-Rhin passato in commissione disciplinare la scorsa estate, sospettato di aver utilizzato un’IA durante l’esame di filosofia, è stato infine scagionato. I correttori avevano usato “un software basilare (…) che genera falsi positivi”, argomenta la madre dello studente a L’Est Républicain. Il sviluppatore di ChatGPT, OpenAI, ha creato un sistema che identifica con precisione le sue creazioni, secondo il Wall Street Journal, ma si rifiuta di renderlo accessibile al pubblico.
Molti insegnanti si sentono quindi impotenti. “Coloro che si interessano devono spesso formarsi da soli, e i cambiamenti di ministro non aiutano”, lamenta Jean-Marie. Il Ministero dell’Istruzione ha prodotto risorse (file PDF) per aiutare gli insegnanti a comprendere l’IA generativa e a parlarne con gli studenti… ma su ciò che dovrebbe essere autorizzato o vietato, le risposte rimangono vaghe. “L’uso non dichiarato o non autorizzato di strumenti di IA per produrre lavori a fini educativi o di valutazione (…) potrebbe essere considerato una forma di cattiva condotta o addirittura di frode educativa”, spiega così l’Accademia di Parigi sul suo sito. Un condizionale che non aiuta molto. Contattato da franceinfo, il Ministero dell’Istruzione non ha specificato se esiste un elenco di utilizzi dell’IA vietati agli studenti a livello nazionale.
Gli insegnanti, d’altra parte, non sono tutti contrari all’uso delle IA generative, purché sia ragionato. “Se gli studenti sanno spiegare ciò che presentano, per me va bene, riassume Jean-Marie. I miei studenti dovevano creare un sito con codice HTML. Uno di loro mi ha restituito un sito impressionante che non mi sembrava corrispondere alle sue capacità. Gli ho chiesto di spiegarmelo e ho visto che padroneggiava il codice che aveva presentato.”
Ma nei fatti, questa padronanza del risultato finale è raramente garantita. Ciò spinge alcuni insegnanti a una riflessione interiore. “Se il mio esercizio può essere fatto stupidamente da un’IA, vuol dire che non era molto interessante”, sostiene Philippe. “Questo mette in discussione i vecchi buoni compiti a casa dati a profusione, a cui tutti gli insegnanti non sono pronti”, ammette Jean-Marie.
Tanto più che gli studenti non sono già tutti uguali di fronte a questi esercizi. “Alcuni hanno la famiglia che li aiuta, e c’erano già internet e gli amici per copia-incollare”, ricorda Louann, insegnante di francese in prima e seconda media nella regione di Nantes. “L’IA porterà agli stessi problemi che Wikipedia ebbe all’inizio, ma moltiplicati per 1.000”, stima Jean-Marie. Tra gli studenti e gli insegnanti, il gioco del gatto(GPT) e del topo è lungi dall’essere finito.
* I nomi sono stati cambiati.
Source : www.francetvinfo.fr