-
NVIDIA attualmente rappresenta quasi l’80% del settore dei chip per l’intelligenza artificiale
-
La GPU MI300X di AMD per AI ha quasi il doppio dei transistor del chip H100 di NVIDIA
NVIDIA regna sovrana nel settore dell’hardware dell’intelligenza artificiale (AI). AMD, Intel, Google e Amazon sono alcune delle grandi aziende che competono per ottenere una buona fetta della torta molto succosa che è il mercato dei chip di intelligenza artificiale. Tuttavia, tutti sono lontani anni luce in termini di quota di mercato dell’azienda guidata da Jensen Huang, che attualmente rappresenta quasi l’80% di questo settore.
Questo dominio schiacciante deriva dall’anticipazione con cui NVIDIA ha saputo prevedere che il mercato dei chip AI sarebbe presto esploso. In ogni caso, le previsioni degli esperti prevedono qualcosa che noi utenti possiamo facilmente intuire se osserviamo in quale direzione si stanno muovendo molte grandi aziende. Quelli che ho citato nel paragrafo precedente sono alcuni di questi, ma ce ne sono molti altri che stanno costruendo la propria struttura aziendale sull’intelligenza artificiale. OpenAI, il creatore di ChatGPT, è uno di questi.
La società di consulenza TrendForce ha pubblicato un rapporto molto interessante in cui assicura che OpenAI dovrà supportare in futuro il motore di intelligenza artificiale di ChatGPT con più di 30.000 chip AI. Questo calcolo è stato effettuato tenendo conto del fatto che questa organizzazione ha utilizzato circa 20.000 di questi chip nel 2020 durante il processo di formazione del suo software. È ragionevole supporre che acquisirà i chip all’avanguardia di NVIDIA, ma è possibile che alcuni clienti dell’azienda di Jensen Huang passino a uno dei suoi principali concorrenti.
AMD si sta facendo strada a gomitate
Qualche giorno fa NVIDIA ha presentato il suo chip AI più potente, la GPU H200. Questa bestia è implementata sull’architettura Hopper e ha non meno di 141 GB di VRAM di tipo HBM3E. Secondo i suoi creatori, questo processore offre il doppio delle prestazioni del suo predecessore, il chip H100, quando deve affrontare i compiti di inferenza richiesti da modelli linguistici complessi, quindi è possibile che nei prossimi mesi molti clienti NVIDIA lo diventeranno.
La GPU MI300X di AMD è superiore al chip H100 di NVIDIA in termini di prestazioni per watt e prestazioni per dollaro
-Tuttavia, ci sono diverse alternative ai chip NVIDIA AI, e una di queste brilla di più: la GPU MI300X di AMD. Eric Wu, un ingegnere informatico di Tesla esperto di intelligenza artificiale, si è accorto di questa proposta di AMD È superiore al chip H100 da NVIDIA in termini di prestazioni per watt e prestazioni per dollaro. Inoltre, nonostante abbia quasi il doppio dei transistor della GPU H100, il chip MI300X è più grande solo del 25% grazie alla litografia utilizzata da TSMC nella sua produzione.
-Nonostante tutto ciò, NVIDIA ha due grandi risorse nelle sue mani. Uno di questi, il più avvincente, è CUDA, una piattaforma che riunisce un modello di programmazione e una serie di strumenti di sviluppo utilizzati da molte aziende di intelligenza artificiale. Metterlo da parte per scommettere sull’hardware di AMD o di qualsiasi altra azienda non sarà facile da accettare per le aziende che lavorano con l’hardware NVIDIA. E, in più, quest’ultimo ha la spinta che presumibilmente gli darà la nuova GPU H200. Anche così, è evidente che Jensen Huang e i suoi accoliti non potranno rilassarsi minimamente se vogliono difendere la comoda posizione in cui si trovano in questo momento.
Immagine di copertina: NVIDIA
Maggiori informazioni: DigiTimes Asia
A Xataka: L’avvertimento di NVIDIA è ora reale: la Cina ha progettato un chip per la visione artificiale estremamente potente