reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

GeForce 8800 přišla před 10 lety a přinesla revoluci

9.11.2016, Jan Vítek, aktualita
GeForce 8800 přišla před 10 lety a přinesla revoluci
Už je to dlouhých deset let, co se na trh dostal tehdejší titán mezi grafickými kartami, GeForce 8800 s čipem G80. Dokázal zcela zastínit předchozí generace karet a my se nyní můžeme podívat, co o této kartě dnes říkají její tvůrci.
NVIDIA oficiálně vypustila na trh nové GeForce 8800 s čipem G80 dne 8. listopadu 2006, a to konkrétně dva modely - 8800 GTX za 599 USD a 8800 GTS za 449 USD. Výkonnější varianta měla ve výbavě 128 shaderů, 32 texturovacích jednotek (TMU), 24 renderovacích jednotek (ROP) a 768 MB paměti DDR3. Právě tehdy nové grafické čipy NVIDIE pracovaly na dvou hlavních taktech, takže shadery v 8800 GTX běžely na 1,35 GHz a jádro na 575 MHz. Čip byl vyroben 90nm procesem a skládal se ze 686 milionů tranzistorů, přičemž vedle sebe měl ještě malý NV I/O čip s dalšími 5 miliony tranzistory.





NVIDIA G80 je také první GPU kompatibilní s DirectX 10 a přinesl do svého světa nové možnosti, o nichž se rozpovídali dva inženýři, kteří mají G80 na svědomí: Jonah Alben (Senior VP of GPU Engineering) a John Danskin (VP of GPU Architecture). I bez nich víme, že G80 byl první čip, který jednostranně zaměřené pixel a vertex shadery nahradil širokým polem jednodušších a programovatelných Stream procesorů, jež NVIDIA později začala označovat jako CUDA jádra. Tato architektura umožnila, aby na jejích jádrech byly prováděny různé shaderové výpočty, které daná aplikace zatěžující GPU aktuálně potřebovala. A že byla nová jádra jednodušší, mohla pracovat na podstatně vyšším taktu než zbytek čipu, zatímco na předchozí GeForce 7900 GTX, která byla také založena na 90nm procesu, shadery pracovaly na 650 MHz. Oproti této kartě je ale G80 také podstatně větší čip (zmíněných 681 mil. tranzistorů oproti 278 mil.).

Jonah Alben vidí jako největší výzvu při výrobě G80 samotné vytvoření nového designu jádra s programovatelnými shadery, pro což bylo třeba zcela zahodit předchozí architekturu vycházející z NV30 a NV40 a vytvořit novou "obecnou" architekturu SIMT. NVIDIA si přitom prý uvědomovala, že se pouští do riskantního podniku, neboť do svých tehdy čistě herních karet přidala schopnosti, které pro hraní nebyly využitelné (čili především GPGPU). Dnes ale vidíme schopnost karet provádět výpočty jako jejich nedílnou součást. Ale i ve hrách se tehdy nevyužívaly tak komplexní shaderové operace (až 1000 instrukcí), jaké G80 umožnil zpracovávat. Samotní inženýři NVIDIE přitom až na výjimky netušili, jak důležité se pro ně GPGPU stane.




- diagram G80 -


G80 byl tak na svou dobu čip, jehož možnosti ani nebyly využitelné, takže pro NVIDII by bylo lepší a více výdělečné přijít s něčím jednodušším. Výhody přechodu na architekturu G80 tak ukázaly spíše až budoucí generace. GPGPU tak v NVIDII začínalo jako nejistý startup, který se ale dnes stal základem pro technologie, jež zařídily revoluci v hlubokém učení a umělé inteligenci obecně. A v té době si málokdo dokázal takový dopad představit. Byla to prý vize především Johna Nickollse (zasloužil se o vývoj CUDA), který chtěl, aby se GPU zaměřila na HPC (High Performance Computing). Základ architektury čipu G80 tak přežívá do dnes, i když ta už prošla výraznými změnami především v generaci Fermi a pak nástupem GPU Maxwell.

NVIDIA byla pak sama překvapena rychlostí, jakou se rozmohla její architektura CUDA a vůbec využití grafických karet pro výpočty, takže dále podporovala rozhodnutí, aby všechna její GPU tuto věc podporovala. Umožnila tak, aby GPGPU mohli využít i majitelé běžných GeForce a vedle toho se dostala i na opačný konec, a to do seznamu TOP500 nejvýkonnějších superpočítačů světa, kde její akcelerátory běžně figurují.

Zdroj: Extremetech
reklama