È possibile utilizzare ChatGPT per creare codice dannoso?
➡️ACCEDI A CHATGPT IN ITALIANO CLICCANDO QUI ! ⬅️
ChatGPT non è lo strumento perfetto per scrivere codice dannoso
Dal suo lancio quest’inverno, ChatGPT, la straordinaria intelligenza artificiale conversazionale di OpenAI, ha suscitato un grande entusiasmo. Tuttavia, talvolta questo entusiasmo è stato eccessivo, portando i ricercatori di Check Point a preoccuparsi degli esperimenti condotti dai criminali informatici con il chatbot. La loro preoccupazione? Che ChatGPT diventi lo strumento che consentirebbe di aprire la programmazione di software dannosi a un pubblico più ampio e meno qualificato.
Fortunatamente, il famoso ricercatore di sicurezza Marcus Hutchins ha recentemente smentito tali preoccupazioni in un post sul blog. Ha iniziato a programmare software dannosi prima di ritornare sulla retta via, diventando un eroe globale dopo aver fermato il terribile malware autoriplicante WannaCry.
ChatGPT è limitato dal numero di caratteri
Secondo Marcus Hutchins, ChatGPT è ben lungi dall’essere in grado di creare un software dannoso completamente funzionale. Se gli chiedi di generare un frammento di codice Python per caricare una pagina web, può farlo. Ma più si aggiungono parametri, più diventa confuso. Il limite del numero di caratteri nella casella di dialogo impedisce di inserire dati sufficienti per generare qualcosa al di là di frammenti già presenti sul motore di ricerca Google. E un principiante avrebbe difficoltà a identificare gli errori di codice scritti dal chatbot. Ciò significa che probabilmente non sarà lo strumento adatto per democratizzare la programmazione di programmi dannosi.
La programmazione informatica implica più dell’implementazione del codice
Secondo Marcus Hutchins, questo malinteso sulla programmazione informatica è alimentato da un malinteso più generale. Non si tratta solo di scrivere codice, ma prima di tutto di capire come raggiungere un obiettivo prefissato. In breve, non sono solo righe che si susseguono, ma anche un’architettura da immaginare. Inoltre, riguardo alla generazione di e-mail di phishing, il giovane inglese ironizza ricordando che Google ha lanciato sette anni fa un servizio di intelligenza artificiale sofisticato con il suo famoso traduttore online.
Quindi, per Marcus Hutchins, l’intelligenza artificiale conversazionale non può offrire prospettive ai criminali informatici. Scrivere e-mail di phishing non è mai stato difficile e non richiede intelligenza artificiale. Infatti, queste possono essere create molto facilmente copiando il codice HTML da un messaggio autentico. Non c’è bisogno di un chatbot per fare un copia-incolla.
Quindi, anche se ChatGPT è un’incredibile intelligenza artificiale conversazionale, non è lo strumento perfetto per scrivere codice dannoso. È limitata dal numero di caratteri e non può offrire prospettive ai criminali informatici. La programmazione informatica implica più dell’implementazione del codice e non richiede intelligenza artificiale. Le e-mail di phishing possono essere create molto facilmente copiando il codice HTML da un messaggio autentico.
Fonte : www.ai4business.it
[…] digitali avevano una risoluzione molto bassa, i primi strumenti di traduzione automatica come Google Traduttore producevano risultati mediocri che dovevano essere ritoccati, ecc. In breve, l’innovazione […]