reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
15.1.2016, Pavel Šantrůček, recenze
Nebojte, dnes to nebude o astronomii. Dnešní článek bude o architektuře připravovaných grafických karet společnosti AMD s názvem Polaris. Ale kdo ví, třeba se v budoucnosti kolem této architektury bude vše točit tak, jako kolem skutečné Polárky.
pcmaster112 (1) | 20.1.201615:36
Dobrý den, chtěl bych se zeptat. Kdy uděláte test gtx 960 4GB v zapojení SLI???
Odpovědět0  0
Pavel Šantrůček (43) | 20.1.201617:45
Testy GTX 960 se 2GB VRAM ve SLI tu již byly

https:­/­/www.svethardware.cz­/recenze­-test­-radeonu­-r9­-285­-v­-crossfire­-xdma­/40472
https:­/­/www.svethardware.cz­/recenze­-gtx­-960­-sli­-vs­-gtx­-980­-davidove­-proti­-goliasovi­/40264

U 4GB verzí to nebude významněji jiné, snad jen ve hře Middle Earth: Sahow of Mordor by větší VRAM mohla být nějak znát.
Odpovědět0  0
hl.hl (293) | 15.1.201614:39
V nějakém videu kde srovnávali vedle sebe obě sestavy byl výbuch na jednom počítači úplně jinačí než na druhé sestavě. Čím je to možné vysvětlit?
Odpovědět0  0
Pavel Šantrůček (43) | 15.1.201623:41
Výbuchy jsou vidět na tom oficiálním videu AMD a žádný zřetelně pozorovatelný rozdíl vidět není. Markantní rozdíl v nastavení hry by novináři jistě rozpoznali a menší rozdíl v nastavení by zase na spotřebu vliv neměl.
Odpovědět1  0
hl.hl (293) | 18.1.20168:37
https:­/­/youtu.be­/H9ZIcztgcNY?t=47

Jinak ten vliv nastavení na spotřebu může být i znatelný. Pokud by například udělali do nového čipu nějakou pokročilou funkcionalitu řízení spotřeby, kdy by například mohli jít s taktama a napětím třeba v 10 krocích, tak ano.
Například ta GTX950 by pořád při tomto nastavení jela na plné takty a Polaris by teoreticky mohla sjet na třeba na profil ­-7. Ale to je jen můj odhad.
Odpovědět0  0
Dealguru (3) | 15.1.20169:02
Nový low end s 20 W na čtvrt plynu a výkon jako dnešní mainstream ? Pokud pojede naplno, tak bude žrát 80 W a bude mít výkon jako dnešní High end ? Pochopil jsem to správně ?
Odpovědět0  0
Pavel Matějka (1575) | 15.1.201611:06
Předpokládal bych, že AMD pro tuhle předváděčku zvolilo takové výchozí podmínky, aby dala co nejvýraznější výsledek. V praxi bych počítal s přínosem polovičním a tříčtvrtinovým. Nemluvě o tom, že Nvidia půjde dopředu také.

Máme se nač těšit.
Odpovědět0  0
Cemada (1210) | 15.1.201612:12
Souhlasím s tím, že AMD si udělalo nejideálnější podnímky. Ale těch 20W mi přijde stejně nějak málo...prostě jak takový pocit :­-­)
Jestli ale realita ­(GPU uvedené na trh­) bude opravdu takové, tak to bude pecka!
Držím jim palce.
Odpovědět0  0
Pavel Šantrůček (43) | 15.1.201612:50
Tak jistěže si AMD podmínky nastavila ty nejlepší, o tom netřeba příliš dlouho přemýšlet. Pokud jsme u GTX 950 vypnuli VSYNC, pak výkon vzrostl o 43% a spotřeba o 24%. Pokud bychom počítali podobné škálování spotřeby u Polaris, pak bychom se dostali ke spotřebě kolem 25­-30W a to je si myslím absolutně nereálné. Musíme tedy počkat na více testů a pak teprve uvidíme. Každopádně to ale vypadá velmi dobře.
Odpovědět0  0
easyrider_svk (84) | 15.1.201614:38
to ide aj pri dnesnych atinach. napr R9 290 je pocutelny rozdiel ked ide s vsync zapnutym alebo nie. este aj cpu menej maka...
Odpovědět0  0
Pavel Šantrůček (43) | 15.1.201622:52
Hawaii jsme měřili také, jen jsme ji nedali do grafů. Radeon R9 290X v tomto nastavení s VSYNC si vzalo 194 W. a bez VSYNC pak 305 W.
Odpovědět1  0
easyrider_svk (84) | 16.1.201615:13
:­) ja to tak musim robit, vsync on, na moj vkus sa moj hreju cpu aj gpu ked im povolim uzdu...mozem vypnut kurenie ked spustim kodovanie videa :D:D.
Odpovědět0  0
matomato (1) | 18.1.20160:36
Ahoj. Prosim ta a v akom softe kodujes videa + aku GK pouzivas? Chcel by som si postavit novy komp a vyuzivat GK aj na kodovanie videi, len s tym nemam skusenosti. S tym kodovanim pomocou GK. Vdaka vopred za odpoved.
Odpovědět0  0
easyrider_svk (84) | 18.1.20169:31
prepacte ale s tym vam nepozem , ja to tiez pustam cez procak... :­/. som to blbo napisal ten koment vyssie..
Odpovědět0  0
blackgray (7) | 15.1.20168:51
Zdravím,

jaká je situace s výrobní linkou? Měl jsem dojem, že AMD nakonec upustilo od 16nm u TSCM a bude brát pouze 14nm u GF a Samsungu.
Odpovědět0  0
Cemada (1210) | 15.1.201612:09
Jj, taky jsem někde četl, že AMD potvrdilou pouze 14nm.
Zajímal by mě i rozdíl mezi 16nm a 14nm co se týče spotřeby a frekvencí.
Odpovědět0  0
Pavel Šantrůček (43) | 15.1.201612:37
Tak RTG na CES potvrdilo, že budou využívat oba procesy, jak TSMC FinFETT 16nm, tak také GloFo FinFET 14nm. Nebylo ale řečeno, která GPU budou vyráběna u TSMC a která u GloFo. Dá se jen předpokládat, že to budou ale vždy různé čipy, nikoliv aby jeden čip byl vyráběn zároveň u obou společností.
Rozdíl mezi FinFET 14nm a 16nm nebude zřejmě ­(co do spotřeby a frekvencí­) nijak markantní ­(spekulace­).
Odpovědět0  0
Cemada (1210) | 15.1.201613:37
Díky.
Otázkou je ta výtěžnost­/výhodnost.
Ale osobně bych spekuloval s tím, že highend bude 14nm, možná i nějaké kousky na špici středního segmentu a zbytek na 16nm.
Protože když už highend, tak ať má to nejlepší.
Jen ty ceny budou asi někde jinde. Četl jsem, že 14­-16nm FinFET je hodně drahý proces a když k tomu plácneme HBM2, které ze začátku nebudou nijak levné...
Hodně zajímavá ale bude také nová generace APU. V kombinaci s novým procesem a HBM2 by mohly poslat do kytek samostatné lowend grafiky.
Odpovědět0  0
Pavel Matějka (1575) | 15.1.201614:33
Jak zjistili v Apple, kde si dali do mobilů udělat SoC oběma výrobci ­(jeden by to nestíhal­), 16nm proces je kupodivu o chloupek příkonově úspornější. Asi nezáleží jen na rozměru hradla, ale i na spoustě dalších věcí.
Odpovědět0  0
dom324 (118) | 15.1.201615:28
Jenomže apple si nechával vyrobit čipy na lpe 14 nm ­(low power early­),a teď už je dostupný lpp 14 nm ­(low power plus­) kde jak z názvu lze vyvodit bude lepší poměr spotřeba­/výkon.Ale taky mě zarazilo když jsem poprvé viděl to srovnání spotřeby 14 nm a 16 nm.
Odpovědět0  0
Pavel Matějka (1575) | 17.1.201617:08
Jenže stejně tak je prý už dostupný 16 nm proces ve verzi +.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.