La paura di OpenAI di fronte all’avvento delle intelligenze artificiali ‘sovrumanne
➡️ACCEDI A CHATGPT IN ITALIANO CLICCANDO QUI ! ⬅️
L’intelligenza artificiale di fronte alle sfide etiche e di controllo
Il team ‘Superalignement’ di Open AI mira a difendere la proprietà intellettuale dell’uomo di fronte all’IA.
Fino a dove arriverà l’intelligenza artificiale? Se ora consente di effettuare un intervento chirurgico a distanza, di sapere se Babbo Natale esiste davvero o di redigere una legge, il suo utilizzo e le sue capacità pongono domande.
Per OpenAI, leader mondiale nel ragionamento artificiale e creatore di ChatGPT, è ora di affrontare il problema del controllo di un’IA più intelligente degli esseri umani.
Per farlo, l’azienda a scopo di lucro ‘plafonné’ ha deciso di lanciare il team ‘Superalignment’ nel luglio 2023. Serve a guidare, regolare e governare i diversi sistemi di intelligenza artificiale, secondo il comunicato stampa di Open AI al momento del lancio dell’entità. Un programma che ha un budget di 10 milioni di dollari.
“È un obiettivo ambizioso e non siamo sicuri di riuscirci. Solo uno sforzo mirato e concertato potrà risolvere il problema di un’IA troppo intelligente. Molte misure si sono rivelate promettenti durante gli esperimenti preliminari.”
Il team è guidato dal co-fondatore di OpenAI, Ilya Sutskever, e assistito da Jan Leike. Tre dei loro ricercatori erano, la settimana scorsa, alla conferenza sui Sistemi di elaborazione delle informazioni neurali (NeurIPS) a New Orleans, Louisiana, per presentare gli ultimi lavori di OpenAI, finalizzati a garantire il ‘buon comportamento’ della loro IA.
“Un vero problema”
“I progressi sull’IA sono esplosi quest’anno e posso assicurarvi che non si fermeranno qui”, ha dichiarato Leopold Aschenbrenner, uno dei tre ricercatori, al media specializzato TechCrunch.
“Penso che l’intelligenza artificiale raggiungerà presto un livello umano. Seguiranno capacità intellettuali sovrumane. Questo rappresenta un vero problema, forse il più importante della nostra epoca”.
La presa di posizione del ricercatore può essere spaventosa, eppure l’IA ‘superintelligente’ è alle porte della realtà.
Sam Altman, creatore di Open AI, utilizza persino il progetto Manhattan (un progetto di ricerca del governo americano il cui obiettivo era produrre una bomba atomica durante la Seconda Guerra mondiale) come paragone per parlare dei lavori di Open AI. Questi dovrebbero consentire di “proteggersi da rischi catastrofici” (in questo caso, il controllo dell’IA sull’essere umano).
Secondo TechCrunch, il team ‘Superalignment’ sta attualmente cercando di creare “quadri di governo e controllo” per “supervisionare” i sistemi di intelligenza artificiale. I ricercatori stanno cercando di far funzionare GPT-4 (l’ultimo modello di IA dell’azienda) con GPT-2 come “capo”
www.wired.it/article/intelligenza-artificiale-paura-terminator-guadagno-marketing-musk/