Nvidia ha lanciato il chip AI H100 a marzo dello scorso anno. Questo acceleratore GPU è stato descritto dal produttore di apparecchiature americano come uno dei chip più potenti che abbia mai realizzato, nonché uno dei più costosi, con un costo di circa $ 40.000 ciascuno. Il lancio sembrava falso, poiché l’annuncio è arrivato in un momento in cui le aziende stavano cercando di tagliare le spese a causa dell’incertezza economica e dell’inflazione galoppante. Quindi, a novembre, è stato lanciato ChatGPT. Il chatbot AI di OpenAI è stato adottato da più di 100 milioni di utenti in un solo mese, portando la corsa AI al livello successivo.
Tuttavia, per sviluppare potenti modelli di intelligenza artificiale, è necessaria una notevole potenza di calcolo che pochissimi materiali possono fornire oggi. È qui che entra in gioco Nvidia. Le grandi aziende tecnologiche e le startup si stanno affrettando a mettere le mani sull’acceleratore GPU H100 di Nvidia. Siamo passati da un anno difficile l’anno scorso a un’inversione di tendenza dall’oggi al domani. Il chatbot di successo di OpenAI è stato un momento di svolta. “Ha creato una domanda immediata”, ha affermato Jensen Huang, CEO di Nvidia. Questo ordine sembra aver fatto saltare tutti i numeri del fornitore.
In questa settimana, infatti, si è palesata la voglia di avere il prodotto giusto al momento giusto. Nvidia ha annunciato mercoledì che le sue entrate per i tre mesi fino a luglio saliranno a $ 11 miliardi (oltre il 50% in più rispetto a una precedente stima di Wall Street) grazie alla ripresa della spesa Big Tech nei data center e alla domanda per i suoi chip di intelligenza artificiale. L’annuncio ha aumentato il valore di mercato di Nvidia di $ 184 miliardi in un solo giorno giovedì, spingendo Nvidia, già la società di chip più preziosa al mondo, a quasi $ 1 trilione.
Il chip H100 si è rivelato particolarmente apprezzato dalle grandi aziende tecnologiche, che costruiscono interi data center incentrati sui carichi di lavoro dell’IA, e dalle aziende di intelligenza artificiale emergenti come Stability AI, OpenAI, Anthropic e Inflection AI, in quanto promette prestazioni più elevate che possono accelerare il lancio dei prodotti o ridurre i costi di formazione nel tempo. Microsoft e Google, che stanno sviluppando motori di ricerca basati sull’intelligenza sintetica, sono tra i maggiori clienti dei chip H100 di Nvidia. I produttori di server affermano di aver aspettato più di sei mesi per ricevere i loro ultimi ordini.
I venture capitalist acquistano chip H100 per le startup in cui investono. Elon Musk, che ha acquistato migliaia di chip Nvidia per la sua nuova startup AI X.ai, ha dichiarato all’evento di questa settimana che “la grafica è molto più difficile da ottenere rispetto alla droga”. Il costo del calcolo è diventato astronomico. L’investimento minimo deve essere di $ 250 milioni in hardware del server [afin de construire des systmes d’IA gnrative] disse Musk. Ma il miliardario non ha specificato se si riferisse ai nuovi chip H100 o ai chip Nvidia in generale.
Inoltre, la build del supercomputer Dojo di Tesla è stata influenzata negativamente da questa strada per i chip Nvidia. Dojo dovrebbe consentire a Tesla di rendere più autonoma la sua flotta di veicoli elettrici, ma le cose stanno rallentando. Secondo Musk, Project Dojo è nato solo perché Tesla non aveva abbastanza GPU Nvidia. Onestamente, se possono darci abbastanza GPU, potremmo non aver bisogno di Dojo. Hanno molti clienti. Sono stati così gentili, tuttavia, da dare la priorità ad alcuni dei nostri comandi GPU”, ha detto Musk a luglio.
Musk ha aggiunto: Se Tesla riesce a ottenere il numero di chip di cui ha bisogno da Nvidia, questi saranno integrati in computer specializzati che elaboreranno un’enorme quantità di dati video, necessari per ottenere una soluzione generale al problema. I dati devono essere elaborati in qualche modo. Dojo est donc conu for tre optimis for la training video, and not for the les gnrative d’IA systems, afin de traiter la quantit de donnes ncessaires for les vhicules conduite autonome, ce qui qui est important for parvenir une conduite autonome plus sre que la condotta umana.
Tuttavia, le startup Big Tech e AI non sono le uniche a cercare di proteggere gli acceleratori GPU H100. Si dice che l’Arabia Saudita e gli Emirati Arabi Uniti abbiano acquistato migliaia di questi chip da $ 40.000 per creare le proprie applicazioni AI. Questa forte richiesta di un chip da parte di un’azienda ha portato a una sorta di frenesia degli acquisti. “Chi ottiene quanto H100 e quando è un argomento di discussione nella Silicon Valley”, ha detto Andrej Karpathy di OpenAI in un post su X (ex Twitter, ribattezzato X dopo l’acquisizione di Elon nel novembre dello scorso anno).
Il chip H100 è il successore delle GPU A100 di Nvidia, che sono state la base del moderno sforzo di sviluppo del Large Language Model (LLM). Si dice che il chip H100 sia nove volte più veloce per l’addestramento AI e 30 volte più veloce per l’inferenza rispetto al chip A100. “In termini di accesso, sì, questo è l’aspetto dell’emergere della nuova architettura GPU”, ha affermato Ian Buck, presidente del business di calcolo ad alte prestazioni di Nvidia. Il chip H100 insolitamente grande è un acceleratore GPU progettato per l’uso nei data center e contiene 80 miliardi di transistor.
Sebbene il chip A100 lanciato nel 2020 sia due volte più costoso del suo predecessore, i primi utenti affermano che il chip H100 offre prestazioni almeno tre volte superiori. L’H100 risolve il problema di scalabilità affrontato dai modellisti [d’IA]. “Questo è importante perché ci consente di addestrare modelli più grandi più rapidamente man mano che il problema si sposta dalla ricerca all’ingegneria”, ha affermato Emad Mostafa, co-fondatore e CEO di Stability AI, la società dietro il servizio di generazione di immagini Stable Diffusion. Secondo gli esperti, la domanda di chip H100 dovrebbe continuare a crescere.
Quindi Nvidia si distingue come uno dei primi grandi vincitori dell’ascesa dell’IA generativa, una tecnologia che minaccia di rimodellare le industrie, offrendo enormi guadagni di produttività e sostituendo milioni di posti di lavoro. Inoltre, sembra che gli ordini per gli acceleratori Nvidia siano già esauriti fino al 2024. E poiché si prevede che il mercato degli acceleratori raggiungerà circa $ 150 miliardi entro il 2027, sembra che in futuro non ci sarà altro che green. Il chip H100 si basa su una nuova architettura chiamata “Hopper” (dal nome della pioniera americana del software Grace Hopper).
Naturalmente, questa prosperità è migliore per alcuni rispetto ad altri. Alcuni rapporti indicano che a causa del crescente interesse per i server AI rispetto alle tradizionali installazioni HPC, i produttori di DDR5 hanno dovuto rivedere le loro aspettative per il grado di penetrazione nel mercato della nuova memoria. L’adozione di DDR5 dovrebbe ora raggiungere la parità con DDR4 solo nel terzo trimestre del 2024.
E tu?
Cosa ne pensi?
Cosa ne pensi della forte domanda di chip Nvidia H100?
Per quanto tempo pensi che continuerà questa tendenza?
Che impatto avrà questo su Nvidia e sull’industria dei chip in generale?
Vedi oltre
Secondo NVIDIA, le nuove GPU NVIDIA AI saranno 4,5 volte più veloci delle precedenti.
Elon Musk avrebbe acquistato migliaia di GPU per un progetto di intelligenza artificiale generativa all’interno di Twitter, e i critici suggeriscono che vuole una “pausa” per mettersi al passo con OpenAI
NVIDIA noleggia supercomputer AI dal cloud per implementare la sua nuova tecnologia, addebita $ 37.000 al mese per otto chip A100 o H100
“Creatore di problemi. Appassionato di social media. Appassionato di musica. Specialista di cultura pop. Creatore.”