reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
16.8.2021, Jan Vítek, aktualita
Před řadou let, kdy jsme si o počítači s více procesorovými jádry x86 (tehdy spíše s více procesory) mohli nechat zdát, se řešil především růst taktů. Poté nastoupilo zvyšování počtu jader, které také nebude trvat donekonečna, takže co bude dál? 
Xspy (99) | 16.8.202121:57
Podívejte se na herní konzole a jejich technologie ....I u PC segmentu lze čekat podobný kurz a začne to přímým přístupem k SSD ....
Odpovědět2  0
wrah666 (6205) | 16.8.202119:15
Také by neuškodilo trochu profackovat programátory. Naprostá většina jich zná jedinou odpověď: Jede ti to pomalu, kup si lepší počítač. A že to jede pomalu proto, že oni napsali program jako prasata a zbytečně tak zatěžují systém jim ani nedochází.
Odpovědět7  4
RadecekH (810) | 17.8.20217:15
Až programátor dostane zaplaceno 100x tolik, když udělá 100x rychlejší, anebo 100x úspornější kód, tak zcela jistě se zvýší rychlost a úspornost programů. Jen mám obavu, že za takový software zaplatíte násobně více, než za ten ušetřený hardware.
Dobrý programátor by samozřejmě dokázal nepoužívat různé knihovny, frameworky, atp. a všechno si napsat sám. Jen by to trvalo násobně déle, bylo by v tom násobně více chyb, tedy testování by také bylo výrazně delší...
Odpovědět2  0
wrah666 (6205) | 17.8.20218:52
Dokonalá optimalizace je jen sen, ale mohli by ovládat alespoň základy. jako třeba, že se do databbáze lze zeptat jedním složeným dotazem, namísto 5x jednoduchým, kdy se následně musí procesor zabývat ještě vvyhledáváním a porovnáním těch výsledků. Nebo že by si program neměl alokovat x násobně víc ram, než opravdu potřebuje. Ehm a co se týká třeba her, tak trvám na tom, že by při vydání měl jít alespoň dohrát příběh. A nemělo by se plýtvat výkonem tím, že je tam drm, nejlépe hned dvakrát.
Odpovědět4  0
RadecekH (810) | 16.8.202115:58
Cíl je jasný a to je ingerace komponent do jednoho čipu. Tedy GPU a CPU těsně vedle sebe, RAMka opět ve stejném čipu, či spíše na něm ­(ala Lakefield­). Tím se odstraní zbytečná komunikace po desce, může se výrazně zvýšit šířka sběrnic a navíc se výrazně sníží i latence.
Sice se najdou lidé, kteří budou psát, že se to neuchladí, ale těm nějak uniká dnešní realita, kdy už víc jak 80 % prodejů tvoří notebooky a desktop už začíná jen paběrkovat.
Odpovědět2  5
honza1616 (3625) | 17.8.20211:18
Jenže ntb ti nezvládne takovou zatěž jako desktop CPU a dedikované highend grafika.
Jak by podle tebe mel takový HW vypadat?
Deska formatu ATX a v socketu IHS o velikosti 10x20cm pod kterým budou tebou zmíněné součástky?
a co to bude chladit? Vem si jak velké máš dnes radiátory AiO a chladiče GPU
To na takovou desku placneš 8kg radiátor o velikosti 30x50x5cm s 8 větráky?

Bylo by to pěkné mit vše blízko u sebe a propojene přes křemíkové můstky nebo na Interposeru, ale tohle je nereálné, nepočítám úsporné konfigurace jako Lakefield které si vezmou par Wattů
Odpovědět6  1
RadecekH (810) | 17.8.20217:07
Ano, přesně takovouhle odpověď jsem očekával. Budete vykládat o desktopu a nepochopíte, že vůbec nejde o to, jak bude vypadat desktop, protože když je článek o tom, co přijde po růstu taktů a počtu jader x86, tak to není článek o minoritním desktopu, který se minoritním stal už před nějakými 15 lety a jeho podíl stále klesá.
Když se bavíme o nějakém trendu, tak je to trend té majority. Trend u aut je snižování spotřeby, ale to neznamená, že nejsou auta, kde se místo spotřeby řeší úplně jiné parametry. Trend u výuky jazyků na celém světě je výuka angličtiny, ale to neznamená, že to někde nemá smysl a vývoj se tam ubírá jiným směrem.
Jinak i ten minoritní desktop půjde cestou integrace, jen s mírným zpožděním. Ono ten přínos velmi širokých sběrnic ­(či velkého množství nezávislých sběrnic­), který přijde s 3D balením čipů, kdy nebude problém propojit dva čiplety desítkami či stovkami tisíc kontaktů bude mít tak výrazný vliv na výkon, že to přebije i ty nevýhody.
Odpovědět1  6
kert (43) | 16.8.202115:17
A není náhodou M1 od Apple na půl cesty tomu, o čem se tu píše?
Odpovědět1  0
snajprik (1558) | 16.8.202114:58
Pracuje sa na niečom takom, čip ktory by rozdeloval inštrukcie pre CPU a GPU + spoločná HBM2E pamäť. ALe prv sa to určite dostane do serverov. Problem je v tom že Nvidii nejak s tim CPU to škrípe, intel ma opačny problem jemu to škrípe na poly GPU, jediny kto ma obe CPU aj GPU na špičkovej urovni je AMD ale to zase nikdy neprehadzovalo peniaze s vidlami. Realita je 2026­-2030 žeby sa toto mohlo stať štandardom.
Odpovědět1  1
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.