OpenAI starebbe accelerando il rilascio del nuovo ChatGPT a scapito della sicurezza?

I team di Sam Altman sarebbero sotto pressione per rilasciare più rapidamente il nuovo modello di ChatGPT. Per allinearsi al calendario della direzione, i team di sicurezza avrebbero accelerato i protocolli di test per GPT-4o.

Il logo di ChatGPT // Fonte: ilgmyzin via Unsplash

Il lancio di GPT-4o di OpenAI è stato forse affrettato? Secondo quanto riportato da WindowsCentral, i team di sicurezza avrebbero avuto poco tempo per testare il nuovo modello di intelligenza artificiale che alimenta ChatGPT.

Meglio tardi che mai

Diverse fonti hanno rivelato che la direzione di OpenAI privilegerebbe la rapidità rispetto al rigore necessario per lo sviluppo del loro strumento. Peggio ancora, secondo queste fonti: il team di sicurezza di OpenAI avrebbe subito pressioni per accelerare il protocollo di test di GPT-4o al fine di non disattendere la data di uscita di GPT-4 Omni a maggio. Secondo queste fonti, OpenAI avrebbe inviato inviti per festeggiare il lancio del prodotto prima ancora che i team di sicurezza effettuassero i test:

Hanno pianificato l’after-party del lancio prima di sapere se il lancio fosse sicuro.

Interrogata sull’argomento, la portavoce di OpenAI, Lindsey Held, ammette che il lancio è stato fonte di stress per i team di sicurezza, ma smentisce le accuse. Indica che l’azienda «non ha lesinato sul processo di sicurezza». Una dichiarazione supportata da un rappresentante del team di preparazione di OpenAI, che indica che l’azienda ha rispettato i propri obblighi normativi. Ammette tuttavia che il calendario era stretto e precisa che «OpenAI sta ora ripensando completamente il nostro modo di procedere e l’approccio Omni non era semplicemente il modo migliore per farlo». Dei sistemi di sicurezza sono necessari, sapendo che l’IA potrebbe eccellere in alcuni compiti con la stessa precisione di un dottorando.

La sicurezza prima di tutto

Non è la prima volta che OpenAI è sotto i riflettori per questioni di sicurezza. Lo scorso maggio, si è appreso dell’uscita di due dirigenti dell’azienda che denunciavano una mancanza di serietà dell’azienda riguardo ai rischi che poteva provocare l’intelligenza artificiale. L’ex responsabile e co-fondatore di OpenAI, Ilya Sutskever, è uno di questi dirigenti.

Era a capo di “SuperAlignment”, la branca responsabile del controllo dell’intelligenza artificiale prima della sua dissoluzione. Da allora è andato a fondare la sua azienda Super Safeintelligence (SSI). Un’azienda il cui oggetto stesso si basa sulla sicurezza intorno all’intelligenza artificiale.


 

Fonte: www.frandroid.com

➡️ACCEDI A CHATGPT IN ITALIANO CLICCANDO QUI ! ⬅️

Esegui l'accesso per Commentare