in

Nvidia Hopper H100: un enorme taglio GPU a 4 nm per l’IA

4

Nvidia ha approfittato delle GTC per svelare Hopper, la nuova architettura GPU pensata per il settore professionale desideroso di accelerazione hardware. Il tutto materializzato dall’H100, una gigantesca GPU con 80 miliardi di transistor incisi a 4 nm.

Nvidia Hopper

Per il mainstream, Nvidia è principalmente un produttore leader di chip per schede grafiche, con la serie GeForce dominata sul mercato per oltre un decennio. Ma guidata dal suo leader Jensen Huang, l’azienda ha sempre guardato ben oltre il mercato dei giocatori e si è rapidamente posizionata come uno dei principali attori nell’accelerazione hardware. Un’area dove la domanda sta crescendo, anche in modo esponenziale, perché il bisogno di risorse è enorme, anche nei campi dell’intelligenza artificiale e della gestione dei modelli (clima, strada, ecc.).

Per questo particolare settore, Nvidia ha storicamente sempre avuto due approcci differenti. La prima consisteva nell’adattarne le architetture grafiche in due varianti, una per il grande pubblico, l’altra per il professionista – come nel caso di Ampère -; il secondo ha cercato di creare due architetture diverse, ciascuna rivolta a un mercato specifico, come nel caso di Volta, sviluppato appositamente per il campo dell’accelerazione.

Hopper sostiene questo secondo approccio. L’architettura è progettata per il dominio dell’accelerazione, per soddisfare le aspettative dell’IA o anche dell’onniverso. E il minimo che possiamo dire è che due anni dopo il chip GA100 (architettura Ampere), Nvidia sta uscendo con un chip H100 abbastanza impressionante sulla carta. Con 80 miliardi di transistor distribuiti su un’area di 814 mm², si distingue nettamente dal suo predecessore, che era “limitato” a 54,2 miliardi di transistor su 828 mm². Cifre non fuorvianti, Nvidia ha abbandonato l’incisione a 7nm a favore dei 4nm offerti da TSMC (nodo N4). Il chip consuma anche un massimo di 700 W, molto più dei 500 W massimi della generazione precedente.

Nvidia Hopper

Incorporando un’interfaccia PCIe 5.0, il chip è circondato da un massimo di 80 GB di memoria HBM3 dedicata, sufficiente per fornire una larghezza di banda di 3 TB/s. Le specifiche unità di calcolo, che Nvidia chiama acceleratori, sono state riviste, con un Tensor Core di quarta generazione dedicato all’IA, classificato come sei volte più veloce del chip GA100. Il numero di unità di calcolo CUDA Core sta esplodendo, passando da 6.912 a 16.896. Questo dà luogo a prestazioni grezze che sono tre volte superiori all’acceleratore di vecchia generazione, e per non dimenticare, in soli due anni.

Nvidia ha anche ideato un nuovo motore di accelerazione chiamato Transformer Engine. Ciò ha lo scopo di accelerare l’elaborazione di modelli legati all’intelligenza artificiale intorno alla traduzione in tempo reale, all’interpretazione di domande, all’analisi delle immagini o anche nel campo della salute e del clima. L’allenamento neurale che prima richiedeva giorni, ora può essere svolto in poche ore. Un risultato che interesserà il suo mondo, in particolare Google, il cui algoritmo BERT utilizza questo tipo di motore per comprendere meglio le richieste degli utenti e rispondere a queste query in modo sempre più accurato. Ad esempio, Nvidia ha indicato che un lavoro che ha richiesto 7 giorni su 8.000 GPU ora richiederebbe solo 20 ore su chip Hopper.

Nvidia Hopper

Questa nuova GPU sarà offerta ai partner Nvidia a partire dal terzo trimestre. Può essere acquistato separatamente (formato PCIe) ma anche sotto forma di rack DGX che integrano 8 moduli o addirittura armadi SuperPOD da 32 moduli. È possibile collegare insieme fino a 256 moduli utilizzando uno switch NVLink in grado di stabilire una comunicazione a 70,4 TB/s tra i moduli. Infine, i supercomputer sono già all’ordine del giorno, in particolare l’unità Eos di Nvidia, un supercomputer che l’azienda utilizzerà autonomamente e lo offrirà ai suoi partner, che conterrà 576 rack DGX o 4608 GPU. L’Eos offre una potenza di calcolo di 275 petaFLOPS in FP64, rendendolo il secondo supercomputer al mondo, dietro Fugaku (442 petaFLOPS). Ora non resta che attendere gli annunci di Nvidia al grande pubblico: l’azienda molto probabilmente annuncerà la successione di Ampère nei prossimi mesi.

Mihailo Ristic prende una partita molto costosa per Peter Bosz

Loire-Atlantique: Nathalie, allevatrice vicino a Guérande, arrabbiata dopo il programma televisivo L’Amour est dans le pré