Intel jako obvykle nezklamal😀
Odpovědět0 0
Já bych to otestoval na ARM CPU, resp. na 2. nejvýkonějším super počítači na světě - Japonský Fugaku, který má CPU Fijitsu A64FX.
https://top500.org
Normálně tento CPU-only stroj drtí i velká GPU a to díky revolučním 2048-bit SVE vektorům co umí ARM. Umí to i maticové instrukce a BF16.
Odpovědět0 1
Pokud jde o drcení, má superpočítač Fugaku v TOP500 2,7 x nižší výkon než první Frontier a když započítáme i celkovou sppotřebu je Fugaku 3,6 x méně efektivní. V benchmarku HPCG (
https://www.hpcg-benchmark.org/custom/sc22.html ) si už vede Fugaku mnohem lépe, je zhruba stejně výkonný i efektivní jako Frontier. Takže opět žádné drcení, ale přibližně remíza.
ARM žádné 2048-bitové vektory prakticky neumí. To je jen papírová teoretická hodnota. Fyzicky mají CPU v superpočítači Fugaku vektory 512-bitové a klasické ARMy z běžných počítačů pouze 128-bitové. V zásadě jsou na tom tedy plusmínus podobně jako procesory x86.
Odpovědět1 0
Konečně někdo kdo má přehled.
1) Ad Fugaku. Přibližně remíza je ale velké vítězství když vezmeš v úvahu CPU vs. GPU. Nvidia nám valí do hlavy že bez GPU nemůže super počítač fungovat a ono to není pravda. CPU může slušně konkurovat GPU když má čistě 64-bit ISA a moderní SIMD vektory.
Pošli na Frontier algoritmus co má spoustu IFů a ty GPU se z toho zhroutí, kdežto ten ARM CPU to pochroupe parádně protože to je moderní OoO CPU. A to je ta obrovská výhoda ARMu, klidně můžeš postavit GPU s instrukční sadou ARMu a použít ty 2048-bit SVE vektory. Nic z toho s x86 udělat v podstatě nejde, protože sama ISA trpí polynomickou explozí při dekodování kvůli variabilní délce x86 instrukcí.
2) Ad 2048-bit SVE. Ano, dnes žádný CPU nemá implementovány 2048-bit SIMD jednotky. Ale v budoucnu za 20 let může mít. A bude to zpětně kompatibilní s dnešními 128-bit SVE2 v mobilu nebo těma 512-bit v Fugaku. Ale hlavně dnešní SW poběží na těch 2048-bit rychleji, takže to má i dopřednou kompatibilitu.
SVE je revoluce ani ne tak ve výkonu (ikdyž to také), ale spíš ve zjednodušení vývoje SW a taky zjednodušení vývoje samotného CPU-HW.
Odpovědět0 0
Superpočítače zpracovávají obrovské balíky dat, moc vyhodnocování podmínek (ano jde to napsat i česky...) tam není v poměru na objemy dat. Takže to podmíněné větvení není až takový problém. A jeden z důvodů proč Japonci šli cestou samotných CPU je poměrně snadno pochopitelný. Vývoj samotných CPU je o dost snadnější, než k tomu řešit ještě výpočetní akcelerátor. Ale velké firmy jako AMD a Nvidia prodají řádově víc všeho než Fujitsu, takže u nich se ten vývoj snadněji zaplatí. Navíc samotné výpočetní uzly řeší jiné firmy, např. HPE - Cray Shasta a tyto samotné uzly jsou komerčně dostupné pro projekty různých velikostí a výkonů.
Odpovědět0 0
A kdo to bude v tom onAPI psát? nVidia má daleko více user friendly SW podporu...
Odpovědět0 0
Uvidime, co instincty od AMD, hw vypada zajimave, ale co sw support?
Odpovědět1 0
Pokud jde o velké projekty to se programuje přece na míru. Nevím jak moc se to prodává třeba do pracovních stanic nebo jako podnikové řešení. Tam asi nic lepšího než MI 210 nepůjde. MI 250 už není řešení pro PCIe slot, takže to vyžaduje speciální základní desku a vůbec to připomíná víc část superpočítače než běžný server a to i rozměry celého řešení. Podobně u Nvidie. Spíš jsem zvědavý, zda bude i nějaký levnější model v řadě MI 300.
Odpovědět0 0
Jasně, ale když máš tým třeba 50 programátorů, je daleko jednodušší dát každému třeba 3090 než MIxxx aby si s tím mohli hrát, že ano... Navíc ta křivka učení kódu/rychlosti programování je taky třeba u nVidie jinde... násobně
Odpovědět0 0
To nevím, nezáleží tam náhodou i na velikosti paměti. Kromě toho AMD má i Radeon Pro W 7800 a W 7900 ty mají 32 a 48 GB paměti. 3090 má jen jen 24 GB. I když asi jsou spíš určené na matematický výkon v plovoucí řádové čárce od 16. po 64 bitů. Ale zase jsou levnější než Quadra - 2.500 a 4.000 USD. MI 210 je za 16.000 USD. Budu se muset podívat na udávané výkony aktuálních řešení obou firem... Tohle mne zajímá.
Odpovědět0 0
Nj, ale když vezmeme třeba Tensorflow, ten umí utilizovat paměti více GPU - tzn. třeba ty 2x3090 za pár korun mají kluci doma a hrajou si... a CUDA je cca 2.5x rychlejší než konkurence. Já právě před koupí řešil do jaké značky půjdu a i když se mi nelíbí monopol nVidie, vyhrála to a nelituji mé volby. Další věc, pokud je to enterprise je skill - aktuálně vidím ve více enterprise firmách jak odchází staré páky s největším knowledgem a pak se zjišťuje, že ostatní neví jak se to dělá a nejde ani nikoho na tu věc sehnat - nabrat.
Odpovědět0 0
Díval jsem se na test - klasické herní i pracovní grafiky AMD, Nvidia a Intel... A když pominu tragický Intel tak záleží na aplikaci, někde je na tom líp Nvidia a někde AMD, ale u AMD vyzdvihovali nižší cenu, čímž je v průměru výhodnější. Fakt záleží tedy na nasazení.
https://techgage.com/article/amd-radeon-pro-w7800-w7900-workstation-performance-review/1/Test zaměřený na AI jsem ještě nenašel. Nato typuji má AMD právě spíš řadu MI200 a 300, podobně jako Nvidia má čistě výpočetní a AI modely.
Co se mi na W7900 ale líbí je max 300 W spotřeba při dvojnásobku RAM proti výchozímu Radeonu. A W7800 má 70 CU při 260 W, to dává hernímu 7800 docela šance.
Odpovědět0 0