reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
4.4.2017, Jan Vítek, aktualita
Intel připravuje velice zajímavou řadu procesorů, která se nyní objevila pod označením Kaby Lake-G. Ta slibuje integraci i velice výkonných GPU jader. což umožní blízká paměť typu HBM2. To je ve světě procesorů revoluční design.
potooczech (345) | 4.4.201713:49
Tak v heterogenní architektuře je obecně budoucnost procesorů. Frekvenčně jsme se zasekli už dávno. Navyšování počtu jader přestává být v řadě aplikací efektivní už od nějakých 4­-6 jader nahoru. A tam, kde další jádra škálují téměř ideálně, tam bude přinášet velmi zajímavé výsledky právě heterogenní architektura, kdy místo jader CPU práci odvedou shadery v GPU. Výkon pak bude úplně někde jinde, než kdyby práci odváděla CPU jádra. Samozřejmě to bude vyžadovat významnout podporu od výrobců SW. Množství aplikací, kde se zapojí shadery z GPU se bude postupně rozrůstat a výkon pak bude někde úplně jinde, než kdyby to počítalo běžné CPU s velkým počtem jader.
Odpovědět0  0
wrah666 (6205) | 4.4.201711:49
Do ntb možná, u stolního pc by se člověk připravil o obrovskou výhodu plynoucí z toho,l že procesor a grafiku mlže vyměnit nezávisle na sobě. B­) Intel dosud předvedl integrované grafiky z kategorie ­"k smíchu­" případně ­"urážka hráče­". C­) ­"plnotučnou­" stolní grafiku do toho podle mě nenarvou už jen kvůli teplu. A napájení. Ono ty dva či tři velké větráky a přídavné napájení přímo ze zdroje nemá pro parádu, ale prostě proto, že výkonná grafika žere a topí. D­) nechci strašit, ale půjde o nesmírně složitou konstrukci ne jednoho, ale kolika čipů na sebe a vedle sebe, z čehož mi vychází složitá výroba s velkým počtem zmetků.. A obrovskou spotřebou ne zrovna levných křemíkových wafferů, což ve výsledku prostě musí dávat vysokou cenu. ­(Jako jasně, Intel částečně vadné kusy použije jako low end, kde bude deaktivoána část jader procesoru, grafiky a ram, ale tam zase bude ­"nárůst výkonu­" víc než diskutabilní­)
Odpovědět0  0
potooczech (345) | 4.4.201713:55
Ono to ve skutečnosti zase tak složité nebude. Když se podíváte na grafické karty z rodiny Fury, tak tam byla v podstatě celá grafika redukována na interposer s jádrem GPU a paměťovými moduly a okolo byla jen napájecí kaskáda. Jak se tohle bude lišit od CPU verze? V podstatě pouze tak, že tam nebude jen GPU jádro, ale obecně jádro složené z CPU a GPU části. A jelikož to bude mít paměti s vysokou propustností a dostatečnou kapacitou hned u sebe a jelikož je jednodušší navyšovat počet shaderů než počet CPU jader, tak se bude poměrně snadno škálovat výkon. Řada výpočetních úloh, kde škálovala CPU jádra prakticky ideálně bude zpracována přes shadery GPU. Tím pádem nebude nutné vymýšlet kostrukce s velkým počtem CPU jader, protože shadery budou efektivnější.
A samozřejmě jako procesor s integrovanou grafikou to bude moci předvést zcela jiný grafický výkon, než APU šahající do vzdálené a pomalé RAM nebo Iris Pro, které si pomáhají malým množstvím paměti u procesoru a jinak opět šahají do pomalé RAM.
Odpovědět0  0
Aros (547) | 5.4.201715:49
No tak škálovat dobře budou SIMD úlohy. To je také ten typ úloh, které lidé dokáží dobře a efektivně paralelizovat. Ale ne všechny úlohy jsou SIMD. To co je MIMD, na to se bude pořád hodit více jader CPU, ovšem tento typ úloh lidem paralelizovat moc nejde... Složitost strašně roste s počtem vláken a proto jsme dnes zaseklí na těch 4 ­- 8 CPU vláknech ­(která reálně něco dělají, když si otevřete Task Manager, najdete úlohy i se 100 vlákny, ale ta nic pořádného nepočítají­). Ne že by to nešlo zvednout, ale ne za rozmnou cenu. Jednak exponenciálně roste režije té komunikace mezi vlákny a tím také klesá výsledný výkon, ale hlavně roste složitost vývoje takové aplikace. Leda by to byla SIMD úloha, ale tu už je zase lepší nasadit na GPU ­(ovšem to předpokládáme, že uživatel podporovanou GPU v PC má, což nemusí...­).
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.