Meglio tardi che mai
Diverse fonti hanno rivelato che la direzione di OpenAI privilegerebbe la rapidità rispetto al rigore necessario per lo sviluppo del loro strumento. Peggio ancora, secondo queste fonti: il team di sicurezza di OpenAI avrebbe subito pressioni per accelerare il protocollo di test di GPT-4o al fine di non disattendere la data di uscita di GPT-4 Omni a maggio. Secondo queste fonti, OpenAI avrebbe inviato inviti per festeggiare il lancio del prodotto prima ancora che i team di sicurezza effettuassero i test:
Hanno pianificato l’after-party del lancio prima di sapere se il lancio fosse sicuro.
Interrogata sull’argomento, la portavoce di OpenAI, Lindsey Held, ammette che il lancio è stato fonte di stress per i team di sicurezza, ma smentisce le accuse. Indica che l’azienda «non ha lesinato sul processo di sicurezza». Una dichiarazione supportata da un rappresentante del team di preparazione di OpenAI, che indica che l’azienda ha rispettato i propri obblighi normativi. Ammette tuttavia che il calendario era stretto e precisa che «OpenAI sta ora ripensando completamente il nostro modo di procedere e l’approccio Omni non era semplicemente il modo migliore per farlo». Dei sistemi di sicurezza sono necessari, sapendo che l’IA potrebbe eccellere in alcuni compiti con la stessa precisione di un dottorando.
La sicurezza prima di tutto
Non è la prima volta che OpenAI è sotto i riflettori per questioni di sicurezza. Lo scorso maggio, si è appreso dell’uscita di due dirigenti dell’azienda che denunciavano una mancanza di serietà dell’azienda riguardo ai rischi che poteva provocare l’intelligenza artificiale. L’ex responsabile e co-fondatore di OpenAI, Ilya Sutskever, è uno di questi dirigenti.
Era a capo di “SuperAlignment”, la branca responsabile del controllo dell’intelligenza artificiale prima della sua dissoluzione. Da allora è andato a fondare la sua azienda Super Safeintelligence (SSI). Un’azienda il cui oggetto stesso si basa sulla sicurezza intorno all’intelligenza artificiale.