La potenza fenomenale del nuovo mostro dell’IA: ChatGPT in modalità turbo grazie alla sua GPU potentissima!

➡️ ACCEDI A CHATGPT IN ITALIANO CLICCANDO QUI ! ⬅️

Nvidia svela la GPU H200: una rivoluzione per l’IA

Dopo aver conquistato l’intero ecosistema dell’IA con la GPU H100, Nvidia presenta la H200: il nuovo punto di riferimento delle schede grafiche dedicate all’intelligenza artificiale. Scopri come questa potente innovazione consentirà alle IA esistenti, come ChatGPT, di raggiungere il livello successivo, dando vita a nuovi modelli ancora più avanzati!

Un tempo, Nvidia era principalmente conosciuta tra i giocatori di videogiochi su PC per le sue potenti schede grafiche. Tuttavia, negli ultimi anni, l’azienda americana si è affermata come uno dei leader mondiali. Inizialmente, i suoi GPU sono stati massicciamente utilizzati per il “mining” di Bitcoin e altre criptovalute. Più recentemente, con la crescita dell’IA generativa, i suoi chip sono ora impiegati per l’addestramento di modelli come GPT. Ed è proprio questo che ha permesso a Nvidia di unirsi al club molto esclusivo delle aziende con una capitalizzazione superiore al trilione di dollari, poiché l’addestramento dell’IA richiede un gran numero di schede grafiche.

Le GPU sono ideali per le applicazioni di intelligenza artificiale in quanto possono eseguire molteplici moltiplicazioni di matrici in parallelo, essenziali per il funzionamento delle reti neurali. Il loro ruolo è fondamentale per l’addestramento e l’inferenza dei modelli di intelligenza artificiale. Come spiega Ian Buck, vice presidente di HPC presso Nvidia, “per creare intelligenza con intelligenza artificiale generativa e applicazioni HPC, è necessario elaborare grandi volumi di dati in modo efficiente ad alta velocità utilizzando la memoria ampia e veloce delle GPU”.

Attualmente, le GAFAM e tutti gli attori dell’industria dell’IA, come OpenAI e Anthropic, stanno conducendo una guerra senza quartiere per accaparrarsi il maggior numero possibile di GPU. A tal punto che si prevede una carenza per il grande pubblico.

Il nuovo campione delle schede grafiche per l’IA

Con il nome completo di HGX H200 Tensor Core, questa nuova GPU utilizza l’architettura Hopper per accelerare le applicazioni di intelligenza artificiale. Potrebbe consentire la creazione di modelli di IA ancora più potenti. Inoltre, grazie a questo componente, le IA già esistenti, come ChatGPT, potrebbero beneficiare di un tempo di risposta notevolmente migliorato. Secondo Nvidia, l’H200 è semplicemente la prima GPU a offrire memoria HBM3e. Ciò gli consente di fornire 141 GB di memoria e 4,8 terabyte al secondo di larghezza di banda. A titolo di confronto, ciò rappresenta 2,4 volte la larghezza di banda del Nvidia A100 lanciato nel 2020. Si può dire che la tecnologia sta avanzando velocemente, molto velocemente.

La potenza come rimedio alla carenza?

Tutti gli esperti concordano sul fatto che la mancanza di potenza è stata uno dei principali ostacoli al progresso dell’IA nel corso del 2023. Questa lacuna ha rallentato la distribuzione dei modelli IA esistenti e lo sviluppo di quelli nuovi. La carenza di potenti GPU IA è una delle principali cause. Ad esempio, OpenAI ha spesso ripetuto che la mancanza di GPU rallenta ChatGPT. L’azienda è costretta a limitare il suo chatbot per poter fornire il servizio. Una delle soluzioni più evidenti è quindi produrre più chip, ma creare chip più potenti contribuisce anche a risolvere il problema. Grazie all’H200, i modelli IA su cui si basa ChatGPT potranno servire più clienti contemporaneamente.

Prezzo e data di lancio

L’H200 sarà disponibile in diversi formati. Il HGX H200 è una scheda server proposta in configurazioni four-way o eight-way, compatibile con l’hardware e il software dei sistemi HGX H100. D’altra parte, la Nvidia GH200 Grace Hopper Superchip combina una CPU e una GPU in un unico pacchetto per ancora più potenza IA. Queste diverse opzioni soddisferanno tutte le esigenze. Le prime istanze basate su H200 saranno dispiegate a partire dal 2024 da Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure. Successivamente, la GPU sarà disponibile presso tutti i fornitori di servizi cloud e i produttori di sistemi a partire dal secondo trimestre del 2024. Il prezzo non è ancora stato comunicato.

Esegui l'accesso per Commentare