Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

NVIDIA ukazuje Hopper: 4nm TSMC, HBM3 a vysoká spotřeba

22.3.2022, Jan Vítek, aktualita
NVIDIA ukazuje Hopper: 4nm TSMC, HBM3 a vysoká spotřeba
NVIDIA už v případě výpočetních Ampere pro HPC využila lepší proces, než jaký se uplatnil pro herní Ampere, což zřejmě bude platit i pro nové generace Hopper/Ada. Máme tu 4nm čip H100, který využije paměti HBM3
Jensen Huang z NVIDIE vzal opět na sebe prezentaci nového důležitého produktu, jímž jsou čipy GH100 generace Hopper, které najdeme na akcelerátorech H100. Těsně před zveřejněním jeho představení už přitom prosákly na web ty nejdůležitější informace o tom, že GH100 jsou čipy tvořené procesem TSMC N4, které využijí již paměti generace HBM3, sběrnici PCIe 5.0 a budou mít celkové TDP 700 W. 
 
 
Dosavadní zprávy o 5nm procesu nebyly až tak vedle, neboť příslušný N5 firmy TSMC je základem pro N4. Jinými slovy, N4 je vylepšená verze procesu N5 s velice podobnou výtěžností a patří do jeho rodiny, a je tedy kompatibilní. Stejné pomyslné čipy tvořené pomocí N4 budou o 6 procent menší než v případě N5, což by NVIDII teoreticky umožnilo vyrábět velice velké složité čipy s více než 100 miliardami tranzistorů. Toho ale NVIDIA nevyužije, neboť GH100 bude monolit tvořený cca 80 miliardami tranzistorů, zatímco 7nm GA100 jich obsahuje 54 miliard. 
 
 
Oproti A100 nový H100 nabídne 4000 TFLOPS v FP8, 2000 TFLOPS v FP16, 1000 TFLOPS v TF32 a 60 TFLOPS v FP32 i FP64, což je 3x až 6x (FP8) vyšší výkon. NVIDIA se tak chlubí největším mezigeneračním skokem, jaký kdy předvedla, ovšem čip GH100 si dokáže vzít až 700 W, což je přesně o 300 W více než GA100. I zde se ukazuje, že na prudkém růstu spotřeby budoucích herních karet něco bude. 

Platforma HGX H100 vybavená osmi H100 propojenými pomocí přepínačů rozhraní NVLink pak zvládne až 32000 TFLOPS v FP8, 16000 TFLOPS v FP16 a 480 TFLOPS v FP64 a ještě výše v žebříčku škálování je celý DGX POD osazený akcelerátory H100, který už má pro AI připraven výkon 1 ExaFLOPS (1 EFLOPS) a 20 TB paměti HBM3. Samozřejmě pak bude možné využít i několik propojených DGX POD, což zajistí rozhraní Quantum-2 InfiniBand. To už pak můžeme mluvit o systému NVIDIA EOS s celkem 18 DGX POD, a tedy s výkonem až 18 EFLOPS (FP8) či 275 PFLOPS (FP64). 
 
Zde je třeba poznamenat, že jeden NVIDIA EOS nabízí v klasickém FP64 cca 1,4násobný výkon oproti aktuálně nejvýkonnějšímu superpočítači na území USA, jímž je známý IBM Summit. A na světově nejvýkonnější systém (Fugaku) by s přehledem stačily dva EOS. 
 
 
Pokud jde o paměti HBM3, ty již v rámci jednoho GPU GH100 dosahují celkové propustnosti 3 TB/s, čili alespoň o polovinu více než nabízí A100, a to ve své nejlepší 80GB verzi (2039 GB/s). Využita má být stejně jako v případě A100 5120bitová sběrnice, čili tu sice vidíme šest pamětí HBM3, ale pracuje jich jen pět.
 
 
Nakonec tu máme pro dnešek už několikrát diskutovaný Grace Hopper, čili CPU + GPU kombo pro AI a HPC aplikace. K dispozici má moderní rozhraní NVLink s 900 GB/s, 600 GB paměti a samotné CPU Grace je vybaveno 144 jádry ARM a využívat bude LPDDR5X. Konkurence ale ještě nemusí propadat zoufalství, neboť tento produkt má být vypuštěn na trh až někdy za rok.
 
Jensen Huang toho měl ale ve své prezentaci na srdci mnohem více, ale o tom až příště. 


Doporučujeme náš velký přehled desktopových grafických čipů.