reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

Co přijde po růstu taktů a počtů jader x86? Omezení pohybu dat

16.8.2021, Jan Vítek, aktualita
Co přijde po růstu taktů a počtů jader x86? Omezení pohybu dat
Před řadou let, kdy jsme si o počítači s více procesorovými jádry x86 (tehdy spíše s více procesory) mohli nechat zdát, se řešil především růst taktů. Poté nastoupilo zvyšování počtu jader, které také nebude trvat donekonečna, takže co bude dál? 
Dnes se traduje, jak Intel měl původně v záměru vyhnat takt procesorů s architekturou Netburst až někam k 10 GHz, ovšem k tomu se nakonec ani nepřiblížil a Pentia 4 nakonec zůstala hluboko pod hranicí toho, co dokáží dnešní procesory. V druhém desetiletí nového století se tak závod přesunul ke zvyšování počtu jader, v němž jsme pravda na pár let trošku zamrzli, ale poté se opět probudilo AMD a rázem jsme tu během několika let měli přestup z běžných 4jádrových procesorů na 8jádrové a poté se objevily i 16jádrové. 
 
Nelze ale očekávat, že brzy přijdou 32jádrové a dále 64jádrové desktopové či mobilní procesory. Intel jde spíše cestou hybridní architektury mixující slabší a silnější jádra, přičemž AMD jej bude později pravděpodobně následovat, ale už nemůžeme počítat s takovým tempem, jímž byly dohnány resty první poloviny předchozího desetiletí. Čili k čemu dalšímu se budeme moci upnout? 
 
Pochopitelně zbývá ještě řada výrobních technologií, které jsou však mimo toto téma, takže zmínit pak můžeme spíše vícečipové procesory, což ovšem rovněž neřeší architekturu použitých jader. Máme tu ale něco jiného, a sice efektivitu nakládání s daty. 
 
 
Pokud má procesor zpracovávat nějaká data, musí je samozřejmě odněkud získat a zde budeme předpokládat, že začínáme ne u SSD či HDD, ale hlavní systémové paměti RAM. Dle společnosti Rambus je přitom 62,6 % energie vynaloženo na přesun dat z RAM do paměti procesoru a dále mezi jeho úrovněmi cache, zatímco jen 37,4 % spadá na to hlavní, čili výpočetní úkony s danými daty. Úkol tedy zní jasně, minimalizovat přenosy dat tak, aby co nejvíce energie a prostředků zbylo na jejich zpracování. 
 
To lze řešit dvěma způsoby, čili jednak se mohou vytvořit úložná zařízení schopná do jisté míry pracovat s daty, čili například processor-in-memory stack od Samsungu, kde se kombinují paměti HBM2 s integrovanou výpočetní vrstvou (FP16). Čili zde se bavíme o předpřipravením dat pro další zpracování, které má zvýšit výkon i efektivitu. 
 
Dále je tu navíc možnost zvrátit dosavadní vývoj, v němž se z procesoru stala výpočetní jednotka pro všechno, která v sobě integrovala už veškeré funkce někdejšího northbridge i některé funkce z southbridge. Tím může být celá architektura jednodušší a elegantnější, ale v podstatě veškerá data pak musí protéct přes procesor a jeho operační paměť. To je vidět i na materiálech o RTX IO, kde se ukazuje, jak herní či jiná data pro grafickou kartu nejdříve putují do procesoru a systémové paměti, kde jsou případně dekomprimována a pak teprve do GPU a jeho paměti. 
 
 
Budoucí procesory by se tak samy mohly zbavit zátěže, kterou zvládne jiný hardware, jejž tu zatím spíše ještě nemáme, čili v případě RTX IO (nebo MS DirecStorage) grafická karta, ale pak třeba i samotné SSD nebo operační paměť. Tím by se z CPU samotných v podstatě staly akcelerátory starající se jen o některé typy zátěže, a to takové, na které nestačí nic jiného, čímž by se minimalizovaly přesuny dat.
 
Jak ale uvádějí na SemiEngineering, to s sebou nese jeden nezbytný předpoklad, tomu všemu by se musel přizpůsobit software a samozřejmě i hardware, takže můžeme předpokládat, že pokud se takové změny dostaví, nejdříve se projeví v oblasti serverů a je otázka, zda vůbec mohou někdy dorazit mezi běžná PC.  


reklama