Secondo i rapporti, la fine del chip a monte di Nvidia AI GPU H200 è entrata nel periodo di produzione di massa alla fine del secondo trimestre e dovrebbe essere consegnata in grandi quantità dopo il terzo trimestre.Ma il programma di lancio della piattaforma Nvidia Blackwell è almeno uno o due quarti prima del previsto, il che influisce sulla volontà dei clienti finali di acquistare H200.
La catena di approvvigionamento sottolinea che attualmente gli ordini dei clienti in attesa della spedizione sono ancora per lo più concentrati nell'architettura HGX di H100, con una percentuale limitata di H200.Nel Q3, l'H200 che sarà prodotto in serie e consegnato è principalmente Nvidia DGX H200;Per quanto riguarda B100, ha già una visibilità parziale e dovrebbe essere spedito nella prima metà del prossimo anno.
Come prodotto di aggiornamento iterativo della GPU H100, H200 adotta per la prima volta la tecnologia di memoria ad alta larghezza di banda HBM3E basata sull'architettura avanzata della tramoggia, ottenendo una velocità di trasferimento dei dati più rapida e una maggiore capacità di memoria, in particolare mostrando vantaggi significativi per le applicazioni del modello di linguaggio su larga scala.Secondo i dati ufficiali rilasciati da NVIDIA, quando si tratta di modelli di grandi dimensioni complessi come Llama2 di Meta, H200 ha un miglioramento massimo del 45% nella velocità di risposta generativa dell'intelligenza artificiale rispetto a H100.
L'H200 è posizionato come un altro prodotto pietre miliare di NVIDIA nel campo dell'informatica AI, non solo ereditando i vantaggi di H100, ma ottenendo anche importanti scoperte nelle prestazioni della memoria.Con l'applicazione commerciale di H200, si prevede che la domanda di memoria ad alta larghezza di banda continuerà ad aumentare, che guiderà ulteriormente lo sviluppo dell'intera catena dell'industria hardware di elaborazione dell'IA, in particolare le opportunità di mercato per i fornitori correlati a HBM3E.
La GPU B100 adotterà la tecnologia di raffreddamento liquido.La dissipazione del calore è diventata un fattore chiave per migliorare le prestazioni dei chip.Il TDP della GPU NVIDIA H200 è di 700 W, mentre è stimato in modo conservativo che il TDP di B100 è vicino ai chilowatt.Il raffreddamento dell'aria tradizionale potrebbe non essere in grado di soddisfare i requisiti di dissipazione del calore durante il funzionamento del chip e la tecnologia di dissipazione del calore sarà innovamente innovata per il raffreddamento liquido.
Il CEO di Nvidia Huang Renxun ha dichiarato che a partire dalla GPU B100, la tecnologia di raffreddamento di tutti i prodotti in futuro passerà dal raffreddamento dell'aria al raffreddamento a liquido.Galaxy Securities ritiene che B100GPU di NVIDIA abbia almeno il doppio delle prestazioni di H200 e supererà quattro volte quella di H100.Il miglioramento delle prestazioni dei chip è in parte dovuto ai processi avanzati e, d'altra parte, la dissipazione del calore è diventata un fattore chiave per migliorare le prestazioni dei chip.Il TDP della GPU H200 di NVIDIA è di 700 W, che è stimato in modo conservativo vicino ai chilowatt.Il raffreddamento ad aria tradizionale potrebbe non essere in grado di soddisfare le esigenze di dissipazione del calore durante il funzionamento del chip e la tecnologia di dissipazione del calore sarà completamente rivoluzionato verso il raffreddamento liquido.