reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od BORRT
Nenapadlo vás, že to je to kouzlo open source, kterým vy tak pohrdáte. Stačí vám jedna otevřená technologie a máte pokryté nVidia, AMD, Intel, Steam Deck, XBOX i Playstation.

O tom zbytku jsem se tady rozepsal ve vícero postech. A my dva jsme shodly se na tom, že se neshodneme.
Odpovědět2  1
Tak já vám tu napíši hry, které prokazatelně vyvracejí tu vaši utkvělou lež o tom, že AMD něco blokuje a vy si pořád vedete svou.

NIC NEBLOKUJÍ, KDYŽ TY HRY EXISTUJÍ!!!!

Odpovědět1  0
Jenže to se právě hluboce mýlíte, protože existují hry, na kterých spolupracovalo AMD a mají obě technologie FSR i DLSS. Tuto kravinu se vám tu pan autor tohoto článku snažil manipulativně podsouvat.
Příkladem budiž např. Horizon Zero Dawn, Uncharted: Legacy of Thieves Collection, Last of Us Part 1,.... atd.
Odpovědět1  0
Jak jsem psal o pár komentářů výše. Když tam je obojí. tak s tím také nemám žádný problém.

To, že vám je jedno, že FSR je open source a funguje na všem, tak já tento váš názor nesdílím. Nemám rád proprietární technologie, které vedou k pokřivení herního průmyslu. Tratí na tom ve finále hlavně hráči. V tomto se spolu opravdu neshodneme.
Odpovědět2  2
"Ved skoro vsetky hry pod NV maju podporu aj pre FSR.­"

No právě! Hodně důležité je to slovo SKORO!!!

Zatímco na hrách podporující pouze FSR, tak si tento upscaling může zapnout KAŽDÝ. Vlastník nVidie ­(včetně starších generací­), AMD i Intelu. To že některá hra nemá podporu i pro DLSS je ta pomyslná tříska.

Ale naproti tomu třeba A Plague Tale: Requiem vyvíjený ve spolupráci s nVidií nemá podporu jiných technologií než DLSS doteď.
Na AMD i Intelu máš smůlu. Takže to je ten trám.

Už si to pochopil? Nebo to jen chápat nechceš?!

Odpovědět3  3
A já stále čekám odkazy na ty vaše články, které jste publikoval na svethardware.cz nebo jinde, poukazující na DLSS only tituly, kde jste udělal nějaký rozbor a zda to omezuje konkurenci nebo ne.

Jestli toto považujete za hlubokomyslný rozbor a nějaký velkou vlastní invenci, než to co je v těch zahraničních článcích, na které jste tu dával odkazy, tak je mi vás upřímně líto, že jste stále nepochopil na co celou dobu poukazuji.

Znova zopakuji: ­"Proč vidíš třísku v oku svého bratra, ale trámu ve vlastním oku si nevšímáš?"
Odpovědět2  2
V článku jste napsal toto:

"Dalo by se tak ještě pochopit, že by některé nově vydávané hry podporovaly jen DLSS a nic dalšího právě z důvodu méně zkušeností vývojářů s ostatními technologiemi. Ale nedává moc smysl, aby nově vydávané hry podporovaly jen FSR a už nikoli DLSS­"

Toto je ten váš názor!!!

Prosazování uzamčené technologie co si nezapnou ani uživatelé starších grafik od nVidie, natož konkurence, to by se dalo podle vás POCHOPIT.
Přitom tady mareknr postoval odkaz, že nasazení FSR nebo XeSS je potom triviální.

Ale jak DLSS only omezující pro konkurenci jsem od vás v žádném článku věnovanému SPECIÁLNĚ této problematice nečetl. Nebo dodejte ten odkaz, kde jste to tady na svethardware.cz rozebíral. Už jsem vás o něj několikrát žádal.
To je to na co tu poukazuji. Tendenční článek bez upozornění na druhou stranu mince.

DLSS only se dá podle vás POCHOPIT, ale FRS co lze zapnout i na nVidiích je strašné omezovaní. Toto je ta vaše pokřivená novinařina.
Odpovědět3  4
Trochu vlastní invence a pohledu na problematiku, by vás asi zabilo. Proto jen slepě děláte ctrl­-c a ctrl­-v co píší zahraniční redakce.
Já jsem tady nezpochybňoval vámi odkazy podpořený článek.

Ale doteď jsem od vás žádné články poukazující na DLSS only tituly a jak to omezuje konkurenci nečetl. Jestli ano, tak dodejte odkaz.

Proto si hodlám stát za svým, že varianta pouze DLSS only je pro herní průmysl a hráče principiálně horší než FSR only, kde si FSR zapnete i nVidiích a Intelu.

A proto poukazuji na tu vaší slepou pokryteckou tendenčnost bez špetky vlastního názoru, než aby jste tuto problematiku uvedl do souvislostí.
Odpovědět5  5
"Nikto tu neobhajuhe princip pouzivania iba DLSS­"

A co ti stále není jasné na tom, že implementace FSR je snadná, když už tam jednou DLSS je. Sám si to tu postoval. A proč kolem toho není ŽADNÝ mediální humbuk, když je to v principu pro hráče mnohem horší, než když je tam jen FSR, které si na nVidiích můžeš zapnout.

Když tam je obojí. tak s tím nemám žádný problém.

Žádné články o tom, že hry podporující pouze DLSS a jaké je to omezování konkurence tu pan Polívka nepsal. Jestli ano, tak ať dodá odkazy. Podle mého názoru je to pokrytec, který na uzavřenost DLSS only titulech nepoukazoval, tak teď by měl vážit slova o tom, kdo koho omezuje.
Odpovědět5  4
Zase vám utekla časová linka. Rozjezd DLSS 1 byl hooódně pomalý a v pár titulech. Slíbených jich sice při představení spousta, ale implementace se dočkali až později. Nvidia začala masivně tlačit DLSS až po uvedení FSR 1.0.
DLSS 2.0 trpěl na velký ghosting. Vyřešila to až s DLSS 2.3 ­(11­/2021­). AMD nepřišla s FSR 2.x o tolik později, aby to podporovalo vaše závěry ­(03­/2022­).

Nasazení obou technologií pro vývojaře trvá dle dostupných informacích u DLSS 2.x a FSR 2.x přibližně stejně dlouho. Když už je DLSS implementováno, tak podle vývojářů trvá jen asi 3 dny doplnit hru i o FSR 2.x.

Až tady na svethardware.cz, bude třeba deset článků poukazující na hry používající DLSS only a jak je to proti zájmům hráčů, tak potom můžete psát články o tom jak je AMD špatné, že preferuje otevřené technologie.

Jinak je to prachobyčejné pokrytectví!
Odpovědět5  5
Jenže tady poukazujete na AMD a jeho otevřenou technologii co podporuje i konkurenční karty, ale hry co podporují jen DLSS, tak o nich žádný článek není. To je to co mi na vaší pokřivené novinařině vadí.

"Proč vidíš třísku v oku svého bratra, ale trámu ve vlastním oku si nevšímáš?"
Odpovědět6  4
Používám obě technologie a FSR 2.x je srovnatelné nebo jen mírně horší než DLSS 2.3. Ty kulervoucí prohlášení, že DLSS je o tři parníky lepší než FSR jsou jen fandovská zbožná přání.

Asi tu má spousta uživatelé krátkou pamět a zapomněli na to jak DLSS 1 rozmazávalo textury. A DLSS do verze 2.3 zase trpělo na šílený ghosting. ­(Na co zatím nemá AMD přímou odpověď je DLSS 3 s generováním snímků a přidanou latencí. Zase jsou tam některé zábavné glitche viz spiderman­).

Ale fanouškům řekli, že je to počítané umělou inteligencí ­(terminologie samotné nVidie­) a posadili se z toho na zadek.

Zatímco AMD dokázalo upscaling zprovoznit přes shader units a běhá to i na takřka na všem. I na starších kartách konkurence, na které nV z vysoka kašle.

Her s DLSS only je celá řada, tak proč na jejich fórech nekřičíte nad nápravou situace. Tam to není nelegální omezování konkurence?? Vždyť na rozdíl od FSR si tento upscaling nemohou karty AMD­/Intelu zapnout vůbec!!


Odpovědět8  7
Pro nechápavé znova opakuji, že FSR lze zapnout i na kartách konkurence, ale DLSS ne.

Jak jsem psal výše. Místo abyste pranýřoval všechny hry co používají pouze DLSS a psal články, kde byste na to poukazoval a žádal i doplnění i FSR, tak jste skočil na špek zákulisnímu marketingu nVidie. A jestě máte tu odvahu přiznat, že to děláte jen proto, že to dělají i ostatní.
Odpovědět5  7
To vy nečtete a nechápete o co tu jde.
FSR 1.0­/2.x jde spustit i na kartách od Nvidie­/Intelu.

Konkurenci omezují jen hry co mají pouze podporu pro DLSS!!
Odpovědět7  3
A ono nejde zapnout FSR 1.0­/ 2.x na nVidia kartách??? Samozřejmě, že JDE!

A jde DLSS zapnout na AMD kartách??? Samozřejmě, že NEJDE!

A na co bude DLSS např. uživateli nVidia 1080Ti nebo nVidia 1660 Super? Budˇme vděčni za FSR od AMD.

Proč se tu pan Polívka snaží manipulativně podsouvat, něco o omezování! Proč tu dávno nepsal článek­/y a nerozčiloval se nad hrami co mají jen DLSS. Vždyť prokazatelně dle jeho ­"logiky­" v tomto článku OMEZUJÍ konkurenci a hráče NESROVNATELNĚ více.
Jen se veze na vlně zákulisního marketingu nV a dělá medvědí službu celému hernímu odvětví a škodí hráčům v prosazovaní uzavřených technologií, které jdou spustit jen na novějších kartách JEDNOHO výrobce.

Takže, kdo koho omezuje a zneužívá své majoritní postavení je velmi diskutablilní.
Odpovědět12  5
Nvidia ojebala zákazníky malou pamětí na 3060Ti, 3070 a 3070Ti a za všechno může sprasený konzolový port. No tak jistě....!
A jak vysvětlíš propady FPS u hry na které dělala optimalizace sama nVidia.

A Plague Tale: Requiem
https:­/­/www.nvidia.com­/en­-us­/geforce­/news­/a­-plague­-tale­-requiem­-dlss­-ray­-tracing­/
Ultra Quality, Ray Tracing
1080
Radeon RX6800 avg 52, low 41
GeForec RTX 3070 avg 44, low 11

1440
Radeon RX6800 avg 36, low 31
GeForec RTX 3070 avg 16, low 2

https:­/­/www.techspot.com­/photos­/article­/2661­-vram­-8gb­-vs­-16gb­/#APTR_RT
Odpovědět1  0
Ať si ty největší kritici Radeonů zhlédnou video na youtube ­"16GB vs. 8GB VRAM: Radeon RX 6800 vs. GeForce RTX 3070, 2023 Revisit­", aby věděli jak to za tři roky asi bude analogicky vypadat. V době uvedení ­(2020­), taky recenzenti říkali, že 16GB VRAM je příliš a nejsou potřeba a RTX s 8GB jsou lepší karty.

Pokud si vytáhnete hlavu z ­"xxxxxx­" a začnete ji používat, tak vám možná dojde, že příští rok má být vydaný půlgenerační refresh konzolí ­(aka PS5 Pro­), který zase posune nároky nahoru.
Potom nejspíš bude 12GB vs 20GB za tři roky ­(v roce 2026­) podobná tragédie jako je je 8GB VRAM letos nebo příští rok.
Odpovědět1  1
"Je mi uplne jedno, ze to, co NV alebo niekto iny urobi, je proprietarne. Riesim iba to ako to funguje a co mi to prida..­"

Toto mluví za vše.

Shodneme se asi jen v tom, že se neshodneme.
Odpovědět0  0
¨¨Ty na různých serverech hájíš nVidia až je ten BIAS do očí bijící. Plácáš tu o Freesync, který sice máš, ale nic o něm pořádně nevíš.
Vyzdvihuješ přidanou hodnotu monitorů s G­-Sync modulem, že všechny fungují od 30Hz, ale proč neřekneš i to B co k tomu patří.
-finanční přirážka několika tisíc Kč při srovnatelných parametrech ­(abych ti nekřivdil, tak to jsi uvedl napůl­)
-až o desítky wattů vyšší spotřeba monitorů s G­-Sync modulem
-z toho důvodu některé modely mají aktivní chlazení a tudíž zvýšenou hlučnost

Vyzdvihovat plusy G­-Sync monitorů jsem tě tu i jinde viděl několikrát. Zápory G­-Sync monitorů jsem od tebe nečetl ani jednou. Jestli jsi je někde ­(kromě ceny­) uváděl, tak sem hoď odkaz z diskuze, kde jsi je uváděl. Nebo jsi na ně ­"náhodou­" zapomněl. ;­-­)

Je vidět, že jsi nepochopil jaký mělo API Mantle dopad. I mnoho jiných lidí co se zajímají o hry to nedocenilo. Bez nových API by jsi nemohl mít ty tebou oslavované DXR efekty ­(pro tebe překládám­-RTX­), protože by to skrze overhead starých API bylo nerealizovatelné a byly by tam takové záseky, že by to bylo nehratelné.
I tak to bylo na hraně použitelnosti a proto vzniklo DLSS ­(1­), které bylo ve své první verzi tragické.

Očividně je pod tvoji rozlišovací schopnost poznat rozdíl mezi konkurenční výhodu a snahou o vendor lock.
Oslavuješ proprietární věci od nVidie a ještě si mlaskáš blahem u toho plíživého vendor locku a všude rozhlašuješ jak je skvělá.
Mě nedělá problém přiznat nV zásluhy třeba za lepší výkon v DX11 titulech nebo v některých profi programech. Ale to neznamená, že ji budu za všech okolností chválit­/hájit jako to děláš ty v každé druhé diskuzi.

PS: A kolik karet z konkurenční stáje si za posledních pět nebo deset let měl ty? Já mohu s klidným svědomím říct, že několik a proto si troufnu tvrdit, že mohu oba výrobce srovnávat a znám jejich silné i slabé stránky.
Odpovědět0  0
@mareknr ­(168­) | 17.10.202211:03

Kde začít? V tomto příspěvku je tolik polopravd a nepravd až to hezký není.

"Ked prislo AMD s Mantle, to tiez fungovalo iba na ich grafikach. Az kym sa na tom nepostavil Vulkan a nepotlacilo to vyvoj aj DirectX 12. Tak isto by si tvrdil, ze AMD v casoch Mantle zavadzalo zakaznikov?­"

Ale AMD od začátku chtělo zlepšit herní API a proto zdrojáky poskytlo Microsoftu a Khronosu. Od prvopočátku to bylo koncipováno, tak aby to nebyl vedor lock jednoho výrobce.
https:­/­/www.extremetech.com­/wp­-content­/uploads­/2014­/01­/multivendor.jpg
Takže porovnáváš neporovnatelné, nebo mě rozšiř mé vědomosti a doplň nějakými odkazy, že nVidia chce například otevřít G­-Sync nebo DLSS jako open source.


"Detto ak si mas vybrat napriklad 120Hz monitor, kde Freesync funguje iba v nejakom intervale typu od 48 do 90 alebo od 60 do 90Hz, tak nie je lepsie si priplatit radsej za ten isty monitor s Gsync, ktory bude fungovat od 30 do 120Hz a kde nemusis riesit nastavenia tak, aby si sa vo vacsine trafil do nejakeho intervalu? Tu mozes argumentovat, ze sa tym ale upisujes iba na grafiky od NV, ale nie je to chyba NV, ze Freesync neponuka to iste.­"

WTF???
To podle tebe vybíráš 120Hz monitor a freesync mu funguje 48Hz až 90Hz a nad 91 až do 120Hz mu podle tebe fungovat nebude???? Větší kravinu jsem dlouho nečetl a jestli najdeš nějaký monitor s takovouto specifikací, tak hoď odkaz do diskuze.

Levné kancelářské LCD s freesync mají těch 48­-75Hz, ale to jsou šunky začínající na 2.5 tisících a v žádném případě je nikdo PŘI SMYSLECH nemůže porovnávat s NĚKOLIKANÁSOBNĚ dražšími herními monitory s G­-Sync modulem.¨

Většina herních freesync monitorů má dnes rozsah 48Hz až 144, 165 a více. U těchto funguje LFC a pod 48Hz se vkládají se snímky.
https:­/­/community.amd.com­/t5­/image­/serverpage­/image­-id­/2700i01ADF97A515AF3B2­/image­-size­/large?v=v2&px=999

A ikdyby jsi potřeboval ten monitor, který jede 30­-144 Hz, tak si ho prostě KUP. Monitory s tímto rozsahem a Freesync existují! Například
https:­/­/www.nixeus.com­/nx­-edg27
který má 30­-144 nebo tento, který na DP podporuje 30­-200Hz
https:­/­/eu.aoc.com­/en­/gaming­/products­/monitor­/ag352qcx­/specification

PS: Pro hatery, kteří se tu dozajista vyskytnou, tak vlastním několik grafik od obou výrobců. Přičemž nV nad AMD v současnou dobu vede v poměru 2:1.




Odpovědět0  0
To není úplně pravda. MS má DXR 1.0 a DXR 1.1 neboli Dynamic a Inline Ray Tracing.
DXR 1.1 bylo Microsoftem představeno při příležitosti uvedení RDNA2. Oba výrobci podporují obě verze, ale kartám od AMD víc sedí DXR 1.1.
Hardwre je jedna věc a druhá jsou optimalizace udělané vývojáři enginů her. Nvidia přišla s kompatabilním hw první a má větší zastoupení mezi vlastníky karet, tudíž se většina her pořád ladí na jejich hardware. Tím, ale neříkám, že když se bude ladit na AMD, tak bude mít nějakou výkonnostní převahu. Jen se zmenší výkonostní rozdíl mezi oběma soupeři.

Stejně je pořád DXR v plenkách a podle mě je to jen marketingový buzzword.

Hráči by si měli uvědomit, že ­"opravdové­" raytracing hry ­(path tracing­) jsou jen staré vykoupávky jako je Quake nebo Minecraft.
Ty zbylé jsou kombinací rasterizace a několika málo RT efektů, které ale posílají výkon karet do kopru. Ať se hráči podívají jakou část ­"bohatosti­" scény tvoří rasterizace a pak co přidá těch pár RT efektů. Pak jim možná dojde, že je to hlavně marketing, který za výkonnostní penalizaci nestojí. Aby se to nějako kompenzovalo, tak nV zavedla DLSS, který byl v verzi 1.0 mazadlo, ve veri 2.0 trpělo na ghosting a až ve verzi 2.3 se jim to jakž takž podřilo vyřešit.

Je to na každém hráči, zda si DXR v těch málo kompatibilních hrách zapne nebo ne. Za mě je to hlavně marketing.
Odpovědět4  1
Takže napíšete:
AMD má v tomto ohledu OPROTI Intelu NEVÝHODU,....

Předložím argumenty, že vaše dojmologie ohledně NEVÝHODY na straně AMD nejsou.
Žádné VÝHODY na straně Intelu také nejsou, když má většinu nejprodávanějších procesoru ve verzi F, takže bez grafiky.

Věta z mého příspěvku, kterou jste citoval byla myšlena obecně, takže platná pro Intel i AMD.

Asi nerozumíte psanému textu??
Potřebujete další komentář, aby jste pochopil na co jsem ve svém příspěvku poukazoval? Nebo jen mlžíte schválně!
Odpovědět1  2
"AMD má v tomto ohledu oproti Intelu nevýhodu, a to zvláště v této době, kdy panuje nedostatek grafických karet.­"

Zase dojmologie pana Vítka!

Laskavě si otevřete top 10 procesorů na heurece a zjistíte, že v první desítce má Intel čtyři procesory a všechno jsou to F­-verze tj. bez integrované grafiky.
5. místo Intel Core i5­-11400F
7. místo Intel Core i5­-10400F
8. místo Intel Core i3­-10100F
10. místo Intel Core i5­-12400F

Zato AMD má první procesor s integrovanou grafikou už na 3. místě a tím je AMD Ryzen 5 5600G.

Takřka všechny desky pro AM4 mají video výstupy ­(HDMI­/DP­), takže je zcela na uživateli pro co se rozhodne. Zda pro procesor s GPU nebo bez.

Lze jedině souhlasit s tím, že v dnešní době nedostatkových nebo předražených grafických karet je mít integrované GPU v procesoru výhodou.
Odpovědět7  3
Po ovladačích 471.11 způsobující pády her, restarty a BSOD, tak jsou tu umírající RTX 3090. Nvidii se v poslední době ty drivery opravdu nedaří.
Odpovědět1  1
Linus má pravdu. Intel si spoustu let nechával nechutně připlácet za podporu ECC u svých procesorů, až to došlo tak daleko, že i spousta výrobců desek přestala u svých běžných výrobků ECC podporovat. Museli jste si koupit Xeon a poloprofi­/profi desku a zaplatili jste nesmyslně tučnou přirážku dvakrát.

AMD mělo podporu pro ECC jak v Phenomech, tak i v FX.
Zase záleželo do jaké desky jste procesor vložili. V některých deskách ECC un­-buffered moduly fungovaly jen v non­-ECC modu. Pamatuji si, že v tomto měl navrch Asus a dělal desky ve kterých ECC fungovalo. Pak taky u nejvyšších řad desek od Gigabytu. MSI na to většinou kašlalo. AsRock se v té době ještě rozjížděl.

Výrobní cena ECC modulu se zvýší jen mírně.
Například cena jednoho DDR4 8GB modulu na frekvenci 3200MHz stojí cca 1100 Kč.
https:­/­/www.mironet.cz­/kingston­-server­-premier­-8gb­-1x­-8gb­-ddr4­-3200mhz­-cl20­-dimm­-12v­-ecc­-unregistered­-1rx8­-hynix­-d­-8gbit+dp448869­/
Ale problémy se špatnou RAMkou jsou mnohem častější než si spousta uživatelů uvědomuje. Za ty problémy se stabilitou a hlavně silent data corruption mi ta ušetřená stokoruna na jednom modulu opravdu nestojí a se vzrůstající kapacitou paměti se chybovost jen zvyšuje. To že je ECC u DDR5 povinnost to jen potvrzuje.
Odpovědět8  0
Nevím proč ti vadí zrovna AC Valhalla, když měla mnohem méně problémů při spuštění než Cyberpunki 2077. Máš pravdu, že to není žádná revoluce, ale jen evoluce. Ale to neznamená, že se nemůže počítat.

Tak si tam dej Death Stranding nebo Red Dead Redemption 2, jsou to také velké open world hry a takovéto velké technické problémy při vydání prostě neměli.
Odpovědět1  0
Máte pravdu, že TLOU2 se optimalizovalo pro dvě hw konfigurace ­(ps4­/ps4 pro­). Ale spousta lokací se odehrává v Seattlu a přesto si dali záležet, aby tam nebyly takovéhle do očí bijící bugy.
Místo TLOU2 si dosaďte třeba otevřený svět multiplatformní Valhally od Ubisoftu a stejně bude vypadat líp než to co předvedli na tom samém hw vývojáři se Cyberpunkem. V tomto stavu to prostě CDPR neměl vydávat a slabý hw konzolí za to nemůže.

Děkuji za připomínky. Aspoň jste pochopil o co mi v mém komentáři šlo.
Odpovědět1  1
Tak jste tam místo toho napsal jiný svůj dojem, že zásadním důvodem technických problémů je slabý HW starých konzolí. Protože přesně takhle podle mně ten článek ve finále vyzněl.
Odpovědět2  1
Ve vyznění celého článku to jako výmluvy dle mého názoru jsou. Kdybyste do článku napsal něco ve stylu odpovědi uživateli rehn, tak bych s tím žádný problém neměl.
viz
"Osobně to vidím tak, že optimalizace pro původní PS4 a XBONE měly logicky nejnižší prioritu a nestihly se. CDPR mohli tu hru buď opět odsunout na pozdější vydání, anebo udělat to, co udělali, aby ještě stihli předvánoční sezónu. Že mají tyto konzole na dnešní dobu už tragický výkon, to je fakt, ale hra přesto zřejmě nemusela vypadat tak špatně, jak na nich vypadá. Půjde o kombinaci obojího.­"

Všichni všichni vědí, že staré konzole nejsou po HW stránce trhač asfaltu, ale to opravdu neomlouvá špatný technický stav hry při vydání.
Odpovědět2  1
Tak si tam dosaď jinou multiplatformní tříáčkovou open world hru, co vyšla v poslední době. A pak si polož otázku zda mají­/měli takové technické problémy jako Cyperpunk 2077.

PS: Pro zaryté hatery konzolí. Xbox One ani PS4 nevlastním.
Odpovědět2  2
Tak si otevři odkaz co jsem vložil do toho komentáře a pak to porovnej s tím co je v článku. Potom možná pochopíš pointu mého komentáře, že to není způsobeno jen slabým HW, ale špatnou optimalizací hry.
Odpovědět1  1
"Konzole Xbox One a PlayStation 4 jsou dnes již se svým výkonem dávno za zenitem. Výkon PS4 je srovnatelný s tou nejslabší verzí karty GeForce GTX 1050 a Xbox One je na tom ještě mnohem hůř, a to nemluvíme o paměťovém subsystému a HDD úložištím, což se rovněž podepisuje na neradostných zkušenostech hráčů.­"

Jestli tohle nejsou zbytečné omluvy, tak už si nevidíte na špičku nosu. Příště se držte faktů, takhle špatná grafika tu na starých konzolích u ­"AAA­" hry v době vydání dlouho nebyla. Nehledě na několikeré posuny vydání. Výmluvy­/omluvy na slabý HW konzolí, které jsou tu spoustu let a vývojáři se s nimi mohli za tu dobu seznámit do detailů si nezaslouží. Tohle to opravdu není dobrá vizitka CDPR
Odpovědět3  3
Netvrdím, že minulá generace konzolí je výkřik poslední techniky. Ale toto opravdu není chyba už notně starého HW konzolí, ale spíš neschopnost vývojářů.
Stačí se podívat jak vypadá třeba TLOU2 na PS4.
https:­/­/www.youtube.com­/watch?v=5_0bUW9O­-­-E

Tak nevím proč to autor článku sáhlo dlouze omlouvá. Za tohle si vývojáři z CDPR opravdu žádné omluvy nezaslouží. To jsou prostě zmrvené optimalizace.
Odpovědět5  4
"Xbox si rezervuje 20 % z SSD pro systém,...­"

"Z toho by vyplývalo, že téměř pětinu si pro své potřeby rezervuje operační systém, což opravdu není málo a je otázka, na co takový prostor vůbec potřebuje.­"

Pane Vítku, prohlédl jste si vůbec fotky, které jste vložil do článku? Jasně je tam 86,1% volného místa. Tak nevím kde jste vzal, že OS zabírá 20% nebo téměř pětinu. Je to méně než jedna sedmina ­(1­/7­).
Odpovědět0  1
Tady zase někdo ­"objevil Ameriku­". AMD už roky na zpět vydává měření ­(i­) na Intel sestavách. Otevři si někdy release notes k driverům a pak nebudeš překvapen. Matně si vzpomínám, že už to tak dělají od Nehalemu ­(takže víc než 10 let nazpět­).

Např. 18.9.2 byly testovány na i7­-7700k
https:­/­/www.amd.com­/en­/support­/kb­/release­-notes­/rn­-rad­-win­-18­-9­-2
Testing conducted by AMD Performance Labs as of September 18th, 2018 on the 8GB Radeon™ RX Vega 64, on a test system comprising of Intel i7 7700k CPU ­(4.2 GHz­), 16GB DDR4­-3000 Mhz system memory, and Windows 10 x64.

Ale uznávám, že v dnešní době ­(kdy mají Zen2­) to z marketingového hlediska není zrovna optimální.
Odpovědět4  0
@Xspy
"Možná by místo výukových videí stačilo integrovat do ovladačů pro ladění prospěšné programy typu Afterburner....­"

Vy jste asi drivery od AMD dlouho neviděl, protože funkce pro ladění tam mají už několik let.
https:­/­/www.amd.com­/en­/support­/kb­/faq­/dh2­-020

To že tam přidali funkce prohlížeče, streamování apod. je bohužel daň dnešní doby, kdy si to žádají uživatelé určité věkové skupiny­/vkusu. To samé se dá říct o RGB blikající bižuterii na dnešních chladičích, základních deskách, skříních. Prostě taková je doba.
Odpovědět1  1
Spousta lidí tvrdí, že pro grafiky nemá PCIe4.0 žádný význam a posuzují to jen z hlediska her ­(FPS­), případně rychlosti startu OS nebo hry.
Ale to nemělo ani v dobách když se přecházelo z PCIe2.0 na PCIe3.0. Taky se tehdy dělaly testy a rozdíl byl v řádu jednotek procent ­(bohužel článek, který se tímto zabýval jsem už po letech nebyl schopen najít­).

PCIe má pro grafiky hlavně význam z hlediska GPGPU, kde procesor posílá data do GPU pro zprcování a to mu je následně vrací. V těchto případech je vidět nějaký přínos, ale taky to není to nic dramatického. Záleží na konkrétní úloze jak často posílá data tam a zpět.

Pak jsou tu i specifické případy u her, když kartě dojde VRAM a musí tahat data přes PCIe.
https:­/­/www.neowin.net­/news­/pcie­-30­-could­-be­-crippling­-amds­-rx­-5500­-xt­-performance­/

Tam to taky trochu pomůže, ale není to nic za co by měl člověk připlácet. Jednoduší je vzít dostupnou MB a spárovat ji s grafikou co má více VRAM.
Odpovědět2  0
"Doporučená by měla mít šestijádrový procesor, 16 GB RAM a kalibr RX 590 či GTX 970 se 4 GB RAM.­"

Pro ten Intel to platí, core i5­-8400 je 6C­/6T. Ale AMD Ryzen 5 1500X je čtyřjádro se SMT ­(4C­/8T­).
Odpovědět0  0
Taky aby Intely nezlevňovaly, když jsou děravější více jak ementál.

https:­/­/www.youtube.com­/watch?v=zaTxBZXE9pQ&feature=emb_logo

By exploiting the CPU­'s so­-called bypass logic on return values of loads, it is possible to leak data across processes, privilege boundaries, Hyperthreads, as well as values that are loaded inside Intel SGX enclaves, and between VMs.
Code utilizing this exploit works on Windows, Linux, etc., as this is not a software­- but a hardware issue.
Even without Hyperthreading, it is possible to leak data out of other protection domains. During experimentation it turned out, that ZombieLoad leaks endure serializing instructions. Such leaks do however work with lower probability and are harder to obtain.
Affected software:
So far all versions of all operating systems ­(Microsoft Windows, Linux, MacOS, BSDs, …­)
All hypervisors ­(VMWare, Microsoft HyperV, KVM, Xen, Virtualbox, …­)
All container solutions ­(Docker, LXC, OpenVZ, …­)

https:­/­/cyberus­-technology.de­/posts­/2019­-11­-12­-taa.html
https:­/­/www.phoronix.com­/scan.php?page=news_item&px=ZombieLoad­-TAA­-Announced
Odpovědět5  1
Třeba podle tohoto testu Ryzen 3600 vs Intel 8086k, neboli 6jádro oproti 6 jádru to pro AMD nevypadá, tak tragicky jak to tady popisuješ.

https:­/­/linustechtips.com­/main­/topic­/1080453­-ryzen­-3600­-vs­-8086k­-for­-prime­-number­-finding­/

Tím neříkám, že nové Intely pro tvé použití nebudou rychlejší. Jen mě udivuje ta tvoje jistota, že bez toho že by jsi znal cenu a spotřebu nových Threadripprů ­(teprve budou vydány­) a ty už víš, že nově uváděné Intel Xeony budou jistojistě lepší volba.
Odpovědět3  0
"ne nepřipouštím že TR muže být lepší, ne ve všem, stejně jako Desktop Ryzen ...!!­"

Kdyby jsi se o ty architektury zajímal, tak by jsi věděl, že AMD u Zen2 posílila FPU a jsou schopny provádět AVX256 v jednom průchodu na rozdíl od prvních dvou generací, kde tyto instrukce prováděli nadvakrát. Sice to není AVX512 ­(serverový Skylake­-X, desktopový Skylake měl pouze AVX256; ­), ale výkonnostní posun v náročných AVX úlohách bude znatelný. Podle toho co jsi říkal ten ten tvůj program bude hodně závislý na výkonu AVX.

Ty jsi to ještě v tom tvém jediném směrodatném programu neotestoval, ale už teď víš že Ryzen 3xxx ­(nebo nový Threadripper­) bude horší než Intel.

Bravo, jsi zářný příklad objektivity.
Odpovědět4  1
"Pri drtivé vetsině tech útoků stejne musí mit utocnik fyzicky pristup k HW....­"

To se tedy hooooódně mýlíš!!! Intel je děravý jak řešeto a jde to zneužít vzdáleně přes JavaScript na nějaké webové stránce.

We show that attackers who can run unprivileged code on machines with recent Intel CPUs ­- whether using shared cloud computing resources, or using JavaScript on a malicious website or advertisement ­- can steal data from other programs running on the same machine, across any security boundary: other applications, the operating system kernel, other VMs ­(e.g., in the cloud­), or even secure ­(SGX­) enclaves.

https:­/­/www.bleepingcomputer.com­/news­/security­/new­-ridl­-and­-fallout­-attacks­-impact­-all­-modern­-intel­-cpus­/
Odpovědět4  1
@honza1616
To jsou přesně ty tvoje bludy, za které dostáváš ty mínusy.
Nikde jsem narozdíl od TEBE nic takového v žádné diskusi pod článkem netvrdil. Na to jsi expert právě TY. Vybereš si jeden program a používáš termíny o kterých ani pořádně nevíš co znamenají, natož jak se měří ­(viz tvé závěry o IPC architekur pod různými články na základě JEDNOHO programu.­)

Samozřejmě, že ve spoustě programech má Intel navrch nad Ryzeny. Proto jsem tě odkázal, aby jsi si prošel více testů a včetně metodiky.
To tobě stáčí jednoduché nálepkování, když někdo upozorní na rozpor v tebou předkládaných závěrech, tak je hned odkojenec aDDmina a podobné plky.

Jen pro info, aby si mě nenazýval AMDčkářem, tak mám i Core i7
Odpovědět9  2
@honza1616
"Souhlasím ja pořád nějak nevěřím ze by AMD s ryzenem 3900x porazilo ve většině testů i9­­-9900k a to je jen 8 jader a ke všemu na starší 14nm technologii, úsměvné­"

Tak si laskavě přečti nějaké testy a nejlépe na více webech. Prostuduj si i testovací metodiku podle které to měřili a nezatěžuj zdejší diskuse svými ničím nepodloženými dojmy. Čekám kdy zase vytáhneš ten tvůj JEDEN program na základě kterého zase začneš dělat zcela zcestné závěry o IPC jednotlivých architektur.

Nenapadlo tě, že když píšeš kraviny, tak si ty mínuska zasloužíš....
Odpovědět11  2
@honza1616
Kdybych použil vaši logiku třeba na program 7­-zip, který dokáže velmi vytížit CPU, tak bych mohl tvrdit, že se Intel na AMD vůbec nechytá, protože Ryzen 1600X 4C­/8T má takřka dvojnásobné score než Intel Core i5­-7600K ­(AMD 32 484 vs Intel 17 714 bodů­). A přitom stály v době testu skoro stejně ­(249 vs 242 dolarů­).
https:­/­/images.anandtech.com­/graphs­/graph11244­/86464.png
A ještě bych si mohl přisadit, že mnohem více lidí používá 7­-zip každodenně, ale o nějakém PrimeGrid v životě neslyšeli.

Tady na tom názorně vidíte, že tvrdit něco o IPC procesoru na základě jednoho vybraného programu je NESMYSL.
Odpovědět1  1
"PG je nejnáročnější z dnes dostupných distribuovaných výpočtů a z toho pak vycházím..... ­"

"Ano jistě že ti to prijde jako špatně volba, vždyť to píšu ze je první ryzen pomalý i s dvojnasobkem jader­"

Samozřejmě, že podle jednoho vybraného programu tvrdit, že IPC prvních Ryznu nedosahuje ani poloviny Skylake je TOTÁLNÍ NESMYSL!

Zjistěte si co je to IPC a jak se testuje. Používají se testovací sady, protože na základě výsledku z jednoho programu nelze tvrdit, že Ryzen má poloviční IPC a brát to jako obecnou pravdu platící vždy a všude.
Odpovědět1  1
Někteří ­"jedinci­" pořád dávají jako nepřekonatelné mínus zmíněný chladič u referenčních provedení karet. Jako kdyby výrobci snad měli zakázáno dávat jiný chladič než blower a nic jiného nesměli instalovat.

Ale, že se budou dodávat chladiče s axiálními ventilátory je známo minimálně už od května.
https:­/­/hothardware.com­/news­/asrock­-amd­-radeon­-rx­-5000­-navi­-spied­-computex

Takže je to jen uměle vytvořená záminka ve stylu ­"kdo chce psa bít, hůl si vždy najde­".
Odpovědět0  0
První NAVI byly už od počátku zamýšleny a ohlášeny jako náhrada stávajícího mainstreamu. Highend má přijít příští rok.

Další věc je, že je tu utkvělá představa mezi spoustou lidí, že u nVidie jsou nějaké revoluční skoky v architektuře a u AMD je jen leští stará GCN ­(nyní vylepšená na RDNA­). Ale u obou společností se jedná víceméně o evoluci.
U nvidie bývají ob generaci trochu větší zásahy.

Např. Fermi a její evoluční refresh Kepler. Nebyla to žádná nová revoluční architektura, ale spousta lidi s myslí, že je to víc než GCN1 vs GCN2.

Takže jestli si někdo myslí, že třeba GCN1 v HD7970 je to úplně to samé jako GCN5 ve Vega64, tak se hluboce mýlí.
Odpovědět1  1
Hodně mi to připomíná Scythe Orochi, který se prodával před cca 10 lety.
http:­/­/www.scythe­-eu.com­/en­/products­/cpu­-cooler­/orochi.html
Odpovědět0  0
@ludek_jelinek
G­-Sync byl založen na nápadu variabilní snímkové frekvenci monitorů, která se předtím používala v mobilním segmentu k úspoře energie. Nic nV nebránilo udělat z toho VESA standard jako to udělalo AMD. Měli náskok, takže by na tom slušně vydělali. Ale oni chtějí zákazníky uzamknout ve svém ekosystému. Tvrdili, že bez drahého modulu to nelze. A najednou to JDE! A dokonce to zprovoznili i na starší generaci Pascal. Proč to udělali až teď a ne už při uvedení Pascalu před TŘEMI lety?!?!?!?

NVidia je schopna házet klacky konkurenci pod nohy skrze zákulisní dohody s vývojáři. Kauza Witcher 3 a jejich ­(v té době­) proprietární Gameworks toho byla zářným příkladem. Nastavili zcela nesmyslný teselační faktor, jen aby poškodili výkon konkurence aniž by to mělo vliv na zlepšení vizuální kvality. Že tím poškodili i svoje starší generace karet jim nevadilo. Hlavně, že poškodili výkon konkurence ještě víc.
Sám jsem měl v té době Keplera od nVidie, takže vím o čem mluvím.

Proč se doposud tak pomalu prosazovali­/prosazují nízko úrovňová API ­(DX12, Vulkan­) je také na zamyšlenou.

Že se nVidia neštítí ničeho nemusíme chodit nijak daleko do minulosti. Je to cca rok co se snažila o GPP a ­"přivlastnění­" si herních značek výrobců, tak aby pod nimi nemohli uvádět karty od konkurence.

Nemám problém ocenit inovace a zaplatit si za kvalitní produkt, ale nVidia je společnost co se snaží SOUSTAVNĚ o vendor lock­-in.
Odpovědět0  0
Nechci se nijak Marcela zastávat, ale záleží na skladbě her a konkrétní verzi testovaných karet.
Třeba na GPUreport to vychází při duelu Sapphire Nitro+ RX 580 8GD5 SE vs Asus Strix GTX 1660 Ti O6G Gaming
FHD 81 vs 100%
QHD 80 vs 100%
takže pro tyto edice je to o těch zmiňovaných 25%.

Ale pro jinou verzi toto neplatí
FHD 77 vs 100%
QHD 78 vs 100%
t.j. pro Asus Strix RX 580 O8G Gaming vs Asus Strix GTX 1660 Ti O6G Gaming už to byl rozdíl o těch cca 30%.
Odpovědět0  0
"Tomu odpovídá i cena monitorů na trhu, kde se dají kousky s FreeSync běžně pořídit pod 3000 Kč, zatímco G­-Sync je znak monitorů s cenou vysoko přes 10.000 Kč. Aby však nevznikla mýlka, takové monitory jsou samozřejmě celkově daleko lepší než modely s FreeSync za pár tisícovek.­"

Toto je vcelku nešťastná formulace, které podsouvá myšlenku, že monitory s FreeSync jsou jen levné šunty. Nebylo by lepší napsat, že obdobně vybavené monitory se liší cenovkou?
Například dva herní monitory 144Hz. TN, ­(LFC­), pivot od Asusu.

FreeSynce ASUS MG248QR za 7 490 Kč vs G­-Sync ASUS PG248Q za 12 990 Kč.

https:­/­/www.czc.cz­/asus­-mg248qr­-led­-monitor­-24­/224313­/produkt
https:­/­/www.czc.cz­/asus­-rog­-swift­-pg248q­-led­-monitor­-24­/196371­/produkt
Tady je vidět ten rozdíl v ceně za srovnatelný produkt a velký příplatek za G­-Sync monitory oproti FreeSync.
Odpovědět15  0
Brad Wardell:
‏Did a test of DirectX 11 vs. DirectX 12 on an unreleased GPU with an 8core CPU. DX11: 13fps, DX12: 120fps. Lighting and lens effects.
https:­/­/twitter.com­/draginol­/status­/567428591630426112

Chápu, že je tu nějaká doba nutná na vývoj her. AAA tituly jsou ve vývoji většinou 3 až 4 roky.
Mantle bylo uvedeno na přelomu roku 2013­/2014. Nedlouho poté byl uveden DX12 ­(20. března, 2014­).

Takže je opravdu velká škoda, že se nové hry v roce 2018 stále vydávají na starém DX11 s pár zdroji světla, když tu máme několik let nová API, které dovolují vývojářům mnohem více než by se na první pohled zdálo.
Odpovědět2  1
Toto platilo v dobách DX11 a starších API. V ­"nových­" low level API ­(Mantle, Vulkan DX12­) můžete mít mnohem více světelných zdrojů.
Třeba v Deus Ex Mankind Divided bylo použito mnoho světel a přesto ta hra byla dobře optimalizována a chodila dobře už v roce 2016.
https:­/­/www.youtube.com­/watch?time_continue=9&v=D­-epev7cT30
https:­/­/wccftech.com­/deus­-mankind­-divided­-lot­-static­-lights­-static­-geometry­-visibility­-cached­/
Na náročnost zdrojů světla na výkon v DX11 si stěžoval Brad Wardell v roce 2015, když popisoval co jsou výhody DX12 a jaký to bude mít dopad na kvalitu nasvětlení scény.
https:­/­/littletinyfrogs.com­/article­/460524­/DirectX11vsDirectX12_oversimplified
Takže vývojáři nemuseli čekat až doteď, aby mohli přidat více světel do scény. Sice je to stále stará dobrá rasterizace ­(se všemi výhodami i nevýhodami­), ale stačí postavit hru na DX12­/Vulkanu a jde to už nyní.
Odpovědět2  1
Předtím jsem měl Epson a fungoval asi 7 let a pak umřel. Víceméně až do konce bez problémů.
Pak byl ten horor s Canonem a teď mám opět Epson a mám zase klid.
To samé soused kousek od vedle. Měl tři tiskárny od Canonu a postupně po dvou letech šli z domu. Ta jejich celá řada tiskáren se jim vůbec nepovedla a bylo jedno jestli máte levnou tiskárnu do dvojky nebo za osm tisíc. Všechny měly podobné problémy a věčně hlásili nějaký errror code.

Canon si tím akorát v tiskárnách zničil pověst, kterou si bude muset ještě dlouho napravovat.
Odpovědět0  0
Měl jsem tiskárnou Canon MP640. První rok fungovala bez problémů. V druhém roce se začali objevovat občas před tiskem nějaké error codes. Vždy pomohl postup dle manuálu ­- vypnutí a zapnutí.
Po uplynutí dvouleté záruky bylo skoro každé tisknutí adrenalinovým sportem a vždy se objevil nějaký error code. Postupoval jsem vždy podle manuálu a po pár minutách jsem to rozchodil ­(většinou třikrát až čtyřikrát zapnout­/vypnout­).
Často výrobci svalují vinu na neoriginální inkousty, ale to nebyl můj případ, protože jsem používal inkousty od Canonu.

Očividně v celé řadě těchto tiskáren bylo nějaké kurvítko­/kurvítka a proto se internet plnil podobnými návody jak error code u Canonu odstranit. Toto je řešení, které zcela určitě pomůže a ušetří vám spoustu nervů.
https:­/­/www.youtube.com­/watch?v=AyHaxjFg8aI
Po zkušenostech s tiskárnou značky Canon si od nich nic nekoupím.
Odpovědět0  0
Mám grafiky od obou výrobců. Kepler od nVidie a GCN2 od AMD. Na AMD v současnosti provozuji bez problémů dvou monitorovou sestavu.
Co se týče mých zkušeností, tak jsem měl více problémů s ovladači u nVidie.
Oba výrobci mají občas horší jednu verzi ovladačů, ale u nV to ne vždy byly jen drobné zádrhely.
U jedné verze nV ovladačů se PC dostalo do cyklického restartu a nešlo nabootovat ani do nouzového režimu.

Někteří lidé stále tvrdí že nV má oproti AMD lepší ovladače. Z mé osobní zkušenosti je to spíše naopak.
Odpovědět3  0
První byl AMD FX­-9590.
Sami ho dokonce uvádíte ve svém přehledu procesorů.
https:­/­/www.svethardware.cz­/prehled­-desktopovych­-procesoru­/22566­-9
Odpovědět4  0
Tak nevím jestli je tento článek na stránkách o autech nebo o HW?

V článku je zmíněno dvakrát, že vozidlo je Volvo, ale ani jednou, že Uber používá hardware nVidie.
https:­/­/nvidianews.nvidia.com­/news­/uber­-selects­-nvidia­-technology­-to­-power­-its­-self­-driving­-fleets

To bych od stránek, které se jmenují světhardware asi chtěl moc... :­-)
Odpovědět0  0
Nvidia má s ovladači v posledních letech mnohem víc než je zdrávo, ale stejně je spousta lidí jejich marketingem zmasírováno a přes mnoho závažných problémů stále tvrdí, že jejich ovladače jsou oproti konkurenci lepší. Bohužel moje osobní zkušenost je v posledních třech letech zcela opačná.
Na AMD ­(architektura GCN2­) je minimum problémů a celkově je stabilita na vysoké úrovni.
Za to Nvidia Kepler bylo mnoho problémů menších i větších.
Ale které ovladače mi utkvěly v paměti byly nV 364 ­(4­/2016­), které způsobovaly také cyklický restart. Byl jsem jejich ­"obětí­" a dodnes mi při vzpomínce na ně naskočí husí kůže.
Odpovědět1  1
Nvidia si kvůli majoritnímu podílu na trhu dělá nárok na značky výrobců karet, které si dlouhé roky draze budovali. Když nepodepíšou, tak je odstaví od novinek, nebudou mít hry na bundlování s kartami a stanou se z nic druhořadí výrobci, kterí budou proti těm co podepsali velmi znevýhodněni. Je to od nVidie jen sprosté vydíraní výrobců a zneužívání dominantního podílu na grafickém trhu.
https:­/­/i.redd.it­/q8ppacyag3n01.jpg
Odpovědět6  0
GeForce 1080Ti byla vydána 10. března 2017. Takže dělat z PĚTI měsíců celý rok jsou opravdu zvláštní počty.
Odpovědět0  0
Vy jste nesrovnával statistiky???
Tak proč jste používal tyto slovní obraty v předešlém příspěvku?

"To je zvláštní, protože já ... jsem však žádné problémy neměl. Vše fungovalo jak má.­"

nebo

"No a také s tím neměl žádné problémy. Takže opravdu nevím, kde mohla být chyba u těch zmiňovaných 30%, když ani jeden z nás se s ničím takovým nesetkal.­"

Očividně jste tedy srovnával a zpochybňoval tvrdá čísla s dojmy dvou uživatelů.

Opravdu nevím jestli jste vůbec ten odkaz na ten článek otevřel, protože by jste tam viděl informace o kterých teď jen spekulujete.
Viz
nvidia 28.8%
Microsoft 17.9%
Unknow 17.0%
ATI 9.3%
Intel 8.8%
All others 18.5%
V té statistice jsou rozděleny pády OS i na ­"Unknow­" ­(neznámé­) a ­"All others­" ­(ostatní­).

A vaše:
"Třeba jen větší procento lidí, vlastnící nVidia hardware bylo sto odeslat zpětnou vazbu, zatímco uživatelé hardware jiných značek nemuseli být tak sdílní, nebo jim to ani třeba nebylo umožněno.­"

Většinou se informace o pádu OS odesílají až při následném spuštění systému a ne hned když padne jak se tady snažíte naznačovat. Takže toto mi spíš připadá jako Váš čirý fanatismus a že prostě ani nechcete věřit, že Nvidia drivery tyto pády způsobovaly.
Odpovědět0  0
Oni zaznamenali za dané období 1 663 748 pádů operačního systému. Z toho připadalo 28,8% na drivery nvidia ­(tj. 479 159 pádů OS­). Jestli jste vy a ještě jen člověk nezaznamenal problém, tak to opravdu nemá žádnou statisticky vypovídající hodnotu.

Porovnávat vzorek 1 663 748 vs 2 je opravdu silné kafe.
Odpovědět0  0
Tyto grafiky byly značně problémové co se softwarové stránky týče. Sice se o tom v době prodejů moc nemluvilo, ale později Microsoft vydal tuto statistiku a nvidia drivery mohly za skoro 30% všech pádů Windows Vista.
https:­/­/www.engadget.com­/2008­/03­/27­/nvidia­-drivers­-responsible­-for­-nearly­-30­-of­-vista­-crashes­-in­-20­/


PS: Jsem jen zvědav jak dopadne nějaká budoucí statistika u Windows 10.... Aby jsme se zase nedivili.
Odpovědět0  0
"Není prostě co se vzrušovat kolem nových API zatím.­"

To je dle mého názoru bohužel uměle vytvořeno. NVidia nalila do vývoje DX11 driverů veliký prachy a ví, že v tomto API na ní konkurence nemá, protože AMD má mnohem větší overhead. Proč by se tedy hrnula do DX12, kde by sice měla nějaké malé přírůstky FPS, ale ztratila by oproti konkurenci největší výhodu. Proto se o DX12 zatím moc nestará a dál ladí své drivery hlavně pro DX11.
Až bude připravena ­(pravděpodobně generace Volta­), tak se najednou s DX12 ­(nové hry­/porty z DX11­) roztrhne pytel a marketing bude tvrdit, že DX11 je zbytečné zastaralé API.
Odpovědět0  0
Ale i pro zákazníky nVidie je DX12 výhodou, protože většinou stoupnou i minimální FPS a framerate je celkově vyrovnanější než pod DX11.
Odpovědět0  0
Vidím, že jsi pečlivě vybíral.... A proč jsi sem nedal i odkaz na AotS z toho samého článku?
http:­/­/i.imgur.com­/BD5W0B5.png
Je sice pravda, že i7­-6700K vydrtí oba zmíněné procesory i pod DX11, ale je tu znatelně vidět, že pouhou změnou rederu na DX12 si i u AMD pomůžeš a smaže se hlavní výhoda nVidie a AMD jen mírně zaostává. Narozdíl od DX11, kde zaostávalo mnohem víc.
Pod DX11 na X4 zaostávalo AMD o 3FPS, pod DX12 už jen o 1FPS.
Pod DX11 na i5 zaostávalo AMD o 12FPS, pod DX12 už jen o 2FPS.
Pod DX11 na i7 zaostávalo AMD o 7FPS, pod DX12 už jen o 3FPS.
Jestli tohle není pokrok co se týče využívají multithreadingu, tak pak už nevím jak ti mám přínos nových API pro AMD lépe popsat.
Odpovědět0  0
Netvrdím, že je všechno tak růžové jako je to v syntetických testech, ale rozhodně už neplatí u AMD ta striktní závislost na single thread výkonu jako pod DX11.
Pod DX12­/Vulkan jsou na tom mnohem lépe a jsou s nVidií srovnatelnými soupeři.
Tady záleží jak danou hru programátoři napíší, protože pod DX12­/Vulkanem mají drivery mnohem menší význam než u DX11.
Odpovědět0  0
"Prakticky jediná situace­­/benefit s DX12 získáte pokud máte minimálně poslední generaci i5 či i7 s AMD grafikou. Pokud dáte pomalejší procesor s AMD grafikou DX12 hře tak naopak výkon ztratíte a to hodně. Nvidia tento problém nemá. Ta celkově podává horší výkon pod DX12.
Takže paradoxně na DX12 hru potřebujete výkoný procesor od Intelu.­"

Tak tohole jsou keci a nepochopení problematiky. Je pravda, že AMD má problém v DX11 s vysokou režií a závislostí na výkonu jednoho jádra a to o dost vyšší než má v DX11 nvidia.
https:­/­/www.svethardware.cz­/recenze­-3dmark­-testujeme­-vykon­-directx­-12­/40352­-7­/img­/body­-0.2612­/directx­-11­-multi­-thread­-graf.jpg
Ale u DX12 toto neplatí a ovladače obou firem jsou vyrovnané nebo jsou u AMD lepší.
https:­/­/www.svethardware.cz­/recenze­-3dmark­-testujeme­-vykon­-directx­-12­/40352­-9­/img­/body­-0.2454­/directx­-12­-graf.jpg
Podívejte se na počet drawcalls ­(posun z DX11 na DX12­):
nV 89 tis ­-> 491 tis.
AMD 37 tis. ­-> 688 tis.
Z tohoto je ten nárůst výkonu u AMD v nových API. Proto AMD udělalo Mantle, z kterého vznikl Vulkan a inspiroval se jím i Microsoft při tvorbě DX12. V DX11 mají velky overhead a jsou na tom znatelně hůře než nV, ale v případě DX12 se karta obrací a mají i mírně navrch nad nVidií.
Ovladače na DX12 tvoří tenkou vrstvu a jsou blíže k HW. Tvůrce aplikace ­(hry­) má mnohem větší kontrolu nad HW prostředky, ale také mnohem větší zodpovědnost. Pod DX12 prostě nebudou za vývojáře her dotahovat věci tvůrci grafických karet pomocí ovladačů jak se to děje dnes.

Co se týče API na konzolích, tak ty jdou ještě dále a jejich driver poskytuje vývojářům ještě bližší přístup k HW než u Mantle­/DX12­/Vulkan.
Odpovědět1  0
Tak mi laskavě pošlete odkaz kde prodávají i3 pod 1500Kč, protože v této výkonnostní kategorii se pohybuje CPU část dnešních konzolí. Asi to porovnáváte dle zastaralého DX11, který je veeeeelmi závislý na výkonu v jednom vláknu a ještě má navrch velikou režii.
Ale konzole už v minulé generaci díky API podporovali multithreading a měli minimální overhead.
Odpovědět0  0
https:­/­/www.reddit.com­/r­/Amd­/comments­/4qn47w­/the_pcie_controversy_is_overblown_explain_this­/

Ale ono je to změřené a ty 960 mají ve špičkách i přes 225W a nikdo si dosud nestěžoval na to že by mu zničili desku. Tohle je prostě umělě živená fáma, protože v tuto dobu nemá nV žádný odpovídající produkt, který by mohla nasadit proti 480. 970 je pomalejší a má horší provozní parametry a 1060 je ještě daleko. I když se nás snaží dle posledních zpráv ujistit, že už je za rohem.
Odpovědět4  1
Minulé problémové drivery mě pěkně vypekly ­(i přesto, že jsem dal čistou instalaci­). Počítač nešel nahodit ani do safe modu a musel jsem použít bootovací flashdisk s OS, abych se dostal k bodu obnovení. Celá tahle řada ovladačů vypadá na spoustu změn a málo testování. Rozhodně to nejsou jen fámy jak se někteří uživatelé snaží stavající problémy s ovladači 364.xx bagatelizovat. Ty problémy opravdu postihly dost velkou skupinu lidí.
Odpovědět0  0
"Ale no tak. Nehraj sa na naivného. GW kritizujú hlavne fanúšikovia AMD. ­"

Tak tohle ti zrovna nevyšlo, protože to píšu ze stroje s Intelem a GPU arch. Kepler.

Takže kdyby se nestrhla ta vlna nevole na zcela nesmyslené nastavení vyskokého teselačního faktoru po vydání Witcher 3, tak si stále myslíš, že by v menu doplnili možnost si to nastavit?
A pak kdo je tu naivní.
Odpovědět0  0
"Úplne rovnako by si ho kritizoval ako teraz, pretože by sa na nete objavilo aj tak kopec článkov ako je táto knižnica škodlivá len preto, že je od NV.­"

Tato věta mluví za vše. Pán má křišťálovou kouli a ví víc než všichni okolo a dokonce více i než samotný programátor z CD Projekt Red­­'s Marcin Momotz, který popsal SOUČASNÝ stav a který jsem kritizoval. Je vidět, že nesneseš oprávněnou kritiku na tvoji oblíbenou firmu. Hraješ si tu na přemoudřelého a tvoje fanouškovství k Nvidii je zcela zjevné.
Odpovědět0  1
"Takže čím si pomohla, že nechala nastavený vysoký teselačný faktor? Ničím.­"

A ty první recenze jsou co?
Ty mávnutím kouzelného proutku z internetu nezmizí. Když si někdo méně znalý této problematiky bude chtít zahrát Zaklínače 3 a bude se řídit podle těchto ­"účelově zkreslených­"recenzí, tak Maxwelly vypadají jako ideální volba na novou grafiku.
Nemožnost pro Intel a AMD mít kontrolu nad svým hardwarem a být vydán na milost a nemilost nVidii ­(obfuskace kódu, nemožnost vývojářů se ani o tomto kódu s nimi bavit, ...­). Hráči budou muset vypínat stále více features, které jsou dělané pomocí Gameworks, protože to má na jejich HW velké výkonové dopady. Mnohem větší, než na jinak srovnatelný hardware. Ale tito zákazníci si zaplatili za CELOU hru a ne jen za její osekanou verzi.
Celý balík Gameworks je se stávajícími lincenčními podmínkami a uzavřeností kódu velice kontroverzní a po předešlých zkušenostech jsou i pochybnosti o záměrném výkonnostním poškozováním konkurence zcela namístě.
Ale, že to jde i obráceně ­(bez uzavřeného kódu­) dokazuje AMD se svým open source projektem GPUOpen.
http:­/­/gpuopen.com­/games­-cgi/
Odpovědět0  1
Mělo by tam být slovo ZÁMĚRNĚ: ­"Niekedy má Gameworks ZÁMĚRNĚ prepálené nastavenia, ktoré sa nedajú zmeniť ­­­(Hairworks vo Witcher3 či APEX Turbulence v Batmanovi a pod­­­). To je dôvod na kritiku.­"

"I toto samozřejmě patří ke kritice vývojářů hry, GW potažmo Nvidia nemůže za to, co udělá a nebo neudělá programátor hry.­"

Tohle není, tak úplně pravda. Viz třeba výše zmiňovaný Witcher 3.

Many of you have asked us if AMD Radeon GPUs would be able to run NVIDIA­'s HairWorks technology – the answer is yes! However, unsatisfactory performance may be experienced as the code of this feature cannot be optimized for AMD products. Radeon users are encouraged to disable NVIDIA HairWorks if the performance is below expectations. CD Projekt Red­'s Marcin Momot

http:­/­/www.overclock3d.net­/articles­/gpu_displays­/witcher_3_dev_says_nvidia_hairworks_unoptimizable_for_amd_gpus­/1

To nVidia si nastavila v HairWorks DEFAULTNÍ teselační faktor na x64, ikdyž mezi x8 vs x64, aby jsi hledal rozdíly lupou a mezi x16 vs x64 by jsi je ani tou lupou nenašel. Maxwelly v prvních recenzích vynikly a Radeony defaultní nastavení posílalo do kolen ­(dokonce i starší generace od NV­). Vizuální stránku extrémní teselační faktor už v žádném případě nezlepšoval, ale výkon zaručeně snižoval ­(viz provedená měření­)

http:­/­/wccftech.com­/amd­-announces­-witcher­-3­-hairworks­-performance­-fix­-catalyst­-control­-center­-driver­-coming­-boost­-tessellation­-performance­/

Naštěstí mají Radeony po předešlých ­"optimalizacích­" druhé strany v ovladačích možnost nastavit si teselační faktor vlastní.


Takže za všechno nemohou vždy jen vývojáři.
Odpovědět1  1
Tebou opěvované 970 už proti těm, jak ty tvrdíš ­"extrémním topičům­" dochází ve VR a i v prvních DX12 testech dech.

http:­/­/images.anandtech.com­/graphs­/graph10067­/80357.png

http:­/­/images.anandtech.com­/graphs­/graph10067­/80355.png

http:­/­/cdn.wccftech.com­/wp­-content­/uploads­/2016­/02­/SteamVR­-Performance­-Test­-benchmark­-AMD­-Nvidia.jpg

Takže když někdo koupil oproti 290X nějakou 780Ti, tak mu ta slavná nVidia zestárla mnohem rychleji než levnější Radeon.
Podobně je to i s 970 vs 390­/390X, s vyšším rozlišením jde výkon nVidii mnohem rychleji do kopru.

Když slyším nářky zelených fanatiků na ­"strašnou­" spotřebu Radeonů, tak se musím jen smát, protože si vzpomenu na ty jejich kecy co měli v době uvedení Fermi. Jak je důležitý výkon a spotřeba je podružná nebo kdo má na highend má i na kvalitní zdroj a chlazení. Najednou se karta otočila a spotřeba je nadevše.

A že na tom nejsou Radeony tak špatně oproti konkurenci ve stejné cenové kategorii bylo dokázano i tady SHW.
https:­/­/www.svethardware.cz­/recenze­-sapphire­-nitro­-r9­-fury­-4g­-spotreba­-pod­-drobnohledem­/41848
https:­/­/www.svethardware.cz­/recenze­-sapphire­-nitro­-r9­-380x­-4g­-vlk­-v­-rouse­-beranka­/41606
Uživatel si může nastavit zda chce výšší výkon nebo preferuje obdobné provozní vlastnosti jako má konkurence.
Odpovědět2  1
"..ačkoliv Radeon R9 280­(X­) mají 384bitové, stejně jako lepší karty jako R9 290­(X­).­"

R 290­(X­) rozhodně nemají 384 bitovou sběrnici, ale 512. Tak si to prosím opravte.
https:­/­/www.svethardware.cz­/prehled­-desktopovych­-grafickych­-cipu­/23045­-12
Odpovědět2  0
Ta analogie s DX11 je mimo. Tady někdo zapomněl, že OpenGL hry skoro vymizely a to co je na Steamu jsou vyloženě staré hry nebo konverze starších her z DirectX, takže v tomto má Rafan v prvním příspěvku pravdu. Čest pár vyjímkám.
Že má Fury X například v Counter Striku pod OpenGL ­"POUZE­" 154 FPS oproti GF980Ti s 210 FPS není žádná katastrofa jak se tu snažíte posouvat. Oboje jsou těžce nad limitem většiny dnešních monitorů.
Staré hry co běží slušně pod OpenGL i na takových ­"vykopávkách­" jako je 6950 nové karty AMD neprodají. Akorát by v tom zbytečně utápěly peníze a lidské zdroje, když se mohou zaměřit na mnohem důležitější Vulkan.

Bohužel OpenGL prohrálo souboj s DirectX v herním průmyslu už kdysi dávno. Pro SteamOS a jeho budoucnost je důležitost úspěchu API Vulkan zcela klíčová a teprve uvidíme jak si v porovnání s DX12 povede.
Odpovědět2  0
Pentium D je dost nešťastný název, když ho Intel používal pro své slepence v dobách žravých Pentií 4. Jsem zvědavý jak se s tím poperou vyhledávače ­(Google, Bing, Yahoo, Seznam,..­) a nakolik to bude mix starých a nových odkazů.
Ještě, že lze výsledky filtrovat podle času. ;­-)
Odpovědět0  0
Minimálně hry na Frostbite Enginu jsou plánované pro API Vulkan, to samé platí i pro tolik propírané Ashes of the Singularity. Na letošním GDC byli mezi přednášejícími o Vulkanu i vývojáři Unreal Enginu a Unity. Crytek byl jedním z partnerů pro API Mantle, tak by neměl být takový problém upravit Cryengine pro Vulkan.
Tady bych tak velký problém neviděl. Hry budou.

Co se týče ovladačů, tak jsou to ze dvou důvodů liché obavy:
1. DX12 i Vulkan jsou low level API, takže se u nich nedělají ovladače na míru jako u DX11 nebo OpenGL, ale je to v režii enginu hry. Je to mnohem více podobné jak to chodí u konzolí. Tam se taky nedělají ovladače na míru každé hře, ale hra se přizpůsobuje lightweight driveru.
Je to jako u Mantle
http:­/­/images.anandtech.com­/doci­/7371­/MantleHLSL_575px.jpg
2. API Vulkan vychází z API Mantle a tudíž bych se tolik ve spojitosti s bodem jedna nebál o kvalitu ovladačů u AMD.
Viz. Vulkan simulation using a modified Mantle build to simulate infinitely fast GPU
http:­/­/www.extremetech.com­/wp­-content­/uploads­/2015­/03­/NewWay.jpg
U nvidie to taky problém nebude, když má tolik SW inženýrů a už potvrdila, že Vulkan podporovat bude.
http:­/­/on­-demand.gputechconf.com­/siggraph­/2015­/presentation­/SIG1501­-Piers­-Daniell.pdf
Odpovědět0  0
"... jenomže her pro OpenGL je už tak poskrovnu a pro Vulkan jich bude ještě méně.­"

Proč ta skepse? Vulkan je nadějnější API než DirectX12, který je omezený pouze na Windows 10. Když bude chtít vydavatel hry mít podporu pro Windows Vista, W7, W8, W8.1, W10, Mac a linux, tak pro něj bude Vulkan mnohem vhodnější než DX12, který je jen pro jeden operační systém.
Tady je problém, že většina lidí slyší Vulkan a vztahuje to jen k linuxu. Pro souboj DX12 vs Vulkan není rozhodující linux, ale starší systémy od samotného Microsoftu. Mnoho uživatelů nedá na W7 dopustit a na W10 nepřejdou i když mají upgrade zdarma. Pochybuji, že tuto velkou skupinu uživatelů budou vydavatelé her ignorovat, když to mohou elegantně vyřešit podporou pro API Vulkan.
Odpovědět2  0
Jaký veletoč, co to tady pořád plácáš?

Tohle jsem napsal:
"Všechny grafiky GCN async shadery podporují ­­(řada 7000 a novější­­). Fermi a Kepler nemají podporu žádnou a u Maxwellu je přepínání ­­(context switch­­) pravděpodobně tak náročné, že se nevyplatí.­"

Vidíš tam napsáno, že to Maxwell v2 nepodporuje? Jestli ano, tak si zajdi na oční!
Dokonce tu tabulku, že Fermi a Kepler nezvládají zároveň graphics+compute jsi sem postoval ty sám.
Ta informace o Async Compute a context switch byla prezentována současně a ne postupně jak píšeš.

Prostě popíráš věci co tam nejsou a jen ze sebe děláš ***.

Nynější implementace asynchronních shaderů přístupných v ovladačích pro Maxwell v2 způsobují citelný pokles výkonu v AotS. Holé konstatování. A to měla nVidia měla ke kódu hry přístup více než rok ­(stejně jako Intel, AMD a Microsoft­) a vydala pro AotS i extra ovladač ­( http:­/­/www.geforce.com­/whats­-new­/articles­/geforce­-355­-60­-whql­-driver­-released ­). V současné době jsou proto na žádost nVidie Asynchronní Shadery v AotS zakázány, ale podle tebe žádný problém není a všechno je vpořádku.
Lidi z Oxide Games, Oculus Rift, David Kanter a i Nathan Reed z nVidie lžou. Prostě podle tebe všichni lžou a jen ty máš pravdu.

Už to chápu...někdo si zapomněl vzít své pilulky.
Odpovědět0  1
Bohužel to žádné lži nejsou. A to říkám jako vlastník grafiky i od nVidie ­(Kepler­).
Lidi z Oxide Games jen napsali, že tuto funkcionalitu sice drivery od NV ukazují, ale když se ji pokusili využít, tak šel výkon do kopru. Robert Hallock poté přišel s tvrzením, že je to pravděpodobně díky pomalému context switch.

Tohle je slide z přednášky, kterou měl Nathan Reed z nVidie na GDC 2015 tj. letos v březnu.

http:­/­/cdn.overclock.net­/4­/4a­/4a40deca_yHQVXx2.jpeg

Long draw will delay context switch.­-­-­-­->To je to co se stalo v AotS, když se pokusili AS využívat.
Future GPU: finger­-grained preemtion.­-­-­-­->Takže nějakého velkého zlepšení se dočkáme možná až u Pascalu.

Samozřejmě o tomto v nVidii moc dobře vědí a teprve teď se to budou snažit softwarově napravit. Protože jejich HW to se současným ovladačem plně nepodporuje. Konkurenční Radeony to umí a proto mají ten vysoký výkon v DX12.

PS: Ale jsem rád, že jsi výše hodil ty odkazy, že v Nvidii teprve teď začnou AS řešit, aby byly ve hrách použitelné.
;­-­)
Nyní rozhodně nejsou a aktuální driver má jen pseudopodporu AS a proto taky musela být na požadavek nVidie v AotS vypnuta. To prostě stále platí a jsem jen zvědav, jak se s tím nV do budoucna popere a jaký to bude mít přínos ve výkonu.
Odpovědět0  1
http:­/­/www.dsogaming.com­/news­/oculus­-employees­-preemption­-for­-context­-switches­-is­-best­-on­-amd­-nvidia­-possibly­-catastrophic­/

Současný drivery to neumí a to co nyní nVidia předvádní jsou jen zastírací manévry. Nvidia se bude snažit pomocí softwaru dohnat to co dělá AMD hw úrovni.
Odpovědět0  1
Jenže to netvrdí jen Oxide Games, ale teď už i lidi z Oculus. Současný driver si na podporu hraje a je na tom hůř i než Intel.

Oculus Employees: “Preemption for context switches is best on AMD, Nvidia possibly catastrophic­"

http:­/­/www.dsogaming.com­/news­/oculus­-employees­-preemption­-for­-context­-switches­-is­-best­-on­-amd­-nvidia­-possibly­-catastrophic­/
Odpovědět0  1
Oculus Employees: “Preemption for context switches is best on AMD, Nvidia possibly catastrophic­"

http:­/­/www.dsogaming.com­/news­/oculus­-employees­-preemption­-for­-context­-switches­-is­-best­-on­-amd­-nvidia­-possibly­-catastrophic­/

Now as Microprocessor analyst, David Kanter, said, some Oculus employees told him that the best Preemption support for context switches was with AMD by far, Intel was pretty good and NVIDIA was possibly catastrophic
Odpovědět0  1
http:­/­/www.overclock.net­/t­/1569897­/various­-ashes­-of­-the­-singularity­-dx12­-benchmarks­/1710#post_24368195

GCN je schopno zpracovávat:
Each CU can have 40 Kernels in flight ­(each made up of 64 threads to form a single Wavefront­).
That­'s 2,560 Threads total PER CU.
An R9 290x has 44 CUs or the capacity to handle 112,640 Threads total.

Ten ­"homebrew­" program vůbec neodpovídá tomu jak budou Async Shaders využíváno na Xboxu­/Radeonech. Kdyby byly command listy jen po 1+31, tak je to plýtvání potenciálem GCN. Ten rádoby prográmek na testování AS je zcela mimo reálie her a to je to na co poukazují vývojáři z Oxide games.
Odpovědět0  1
Maxwell spíše předstírá podporu Async Shaders. Ve finále je to nepoužitelné.

www.extremetech.com­/gaming­/213202­-ashes­-dev­-dishes­-on­-dx12­-amd­-vs­-nvidia­-and­-asynchronous­-compute

“Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only ‘vendor­' specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn­'t really have Async Compute* so I don­'t know why their driver was trying to expose that.”
Odpovědět0  1
Přečti si toto vlákno:
http:­/­/www.overclock.net­/t­/1569897­/various­-ashes­-of­-the­-singularity­-dx12­-benchmarks­/1710#post_24368179

NVidia nedosahuje ani zlomku výkonu toho jak je Microsoftem zamýšleno používat Async Shaders v DX12. GeForce zpracovává AS sérově v dávkách po 1+31 a latence schodovitě narůstají a vzápětí je to nepoužitelné.
Takže dle driveru Maxwell má podporu AS, ale pro hry je to nepoužitelné a musí to vypínat.

http:­/­/www.extremetech.com­/gaming­/213202­-ashes­-dev­-dishes­-on­-dx12­-amd­-vs­-nvidia­-and­-asynchronous­-compute

"Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn­'t really have Async Compute* so I don­'t know why their driver was trying to expose that.”

Dokonce nVidia na Oxide games tlačila, aby vůbec AS ve hře nepoužívali.
http:­/­/www.dsogaming.com­/news­/oxide­-developer­-nvidia­-was­-putting­-pressure­-on­-us­-to­-disable­-certain­-settings­-in­-the­-benchmark­/

A to vývojáři v AotS použili Asynchronní Shadery jen na cca 20% případů a v dalších verzích enginu chtějí použít na 50% a více.

“I think you­'re also being a bit short­-sighted on the possible use of compute for general graphics. It is not limited to post process. Right now, I estimate about 20% of our graphics pipeline occurs in compute shaders, and we are projecting this to be more then 50% on the next iteration of our engine. In fact, it is even conceivable to build a rendering pipeline entirely in compute shaders. For example, there are alternative rendering primitives to triangles which are actually quite feasible in compute… It­'s quite possible that in 5 years time Nitrous­'s rendering pipeline is 100% implemented via compute shaders.”
Odpovědět0  1
A kým bylo vyvráceno? PR nVidie, které začalo obesílat redakce, že mají v kódu hry bug a pak se přišlo na to, že chyba byla v ovladačích nvidie.
Oxide games potvrdilo, že nVidia měla ke kódu přístup déle než rok. A v poslední době spolupracovali s nVidií více než s AMD.

Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don­'t really bare that out. Since we­'ve started, I think we­'ve had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ­( and 0 from Microsoft, but they never come visit anyone ;­(­). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code­-checkins, you­'d draw the conclusion we were working closer with Nvidia rather than AMD

http:­/­/wccftech.com­/oxide­-games­-dev­-replies­-ashes­-singularity­-controversy­/

To co si MS a Sony vybralo a v jaké výkonové úrovni bylo jen jejich rozhodnutí. Vzhledem k ceně ­(cca 10k­) a spotřebě konzolí ­(kolem 120W tj. cca 1­/3 herního PC­) je výkon odpovídající. Ale já jsem psal hlavně o pokročilosti soudobé architektury AMD oproti nVidii a ne o absolutním výkonu, kterým jsi začal operovat ty.
Odpovědět1  1
Ono je totiž rozdíl zda se počítají queue engine nebo celkový počet front, který konkretní architektura­/jádro podporují. Dále je rozdíl jestli zároveň podporují graphics­/compute­/copy, tedy flexibilitu vykonávaných úloh. Fermi, Kepler a Maxwell v1 jsou ze hry. Maxwell v2 podporuje polovinu front a přepínání úloh ­(context switch­) je podle dosavadních zjištění pro tuto architekturu mnohem náročnější ­(negativní dopady na výkon­) než pro GCN.
Proto Oxide Games na požádání nVidie asynchronní shadery u jejich karet vypnuli.

AFAIK, Maxwell doesn­'t support Async Compute, at least not natively. We disabled it at the request of Nvidia, as it was much slower to try to use it then to not.
http:­/­/wccftech.com­/async­-shaders­-give­-amd­-big­-advantage­-dx12­-performance­-oxide­-games­/#ixzz3kWGPeCA7
Odpovědět0  1
Ta tabulka je špatně, protože AMD u posledních jader ­(Hawaii, Tonga, Grenada, Antigua, Fiji příp. APU Carrizo­) podporují 8 ACE a každý z nich 8 front tj. 64 front.
http:­/­/abload.de­/img­/78767566nug1.jpg
Takhle je to správně.
http:­/­/abload.de­/img­/gfxcomputedx122nu5c.jpg
Odpovědět0  1
AFAIK, Maxwell doesn­'t support Async Compute, at least not natively. We disabled it at the request of Nvidia, as it was much slower to try to use it then to not.

Takže je zakázali na požadavek od Nvidie, protože použití výkon nezvyšovalo, ale naopak snižovalo.

Read more: http:­/­/wccftech.com­/async­-shaders­-give­-amd­-big­-advantage­-dx12­-performance­-oxide­-games­/#ixzz3kWGPeCA7

Všechny grafiky GCN async shadery podporují ­(řada 7000 a novější­). Fermi a Kepler nemají podporu žádnou a u Maxwellu je přepínání ­(context switch­) pravděpodobně tak náročné, že se nevyplatí. Maxwell podporuje jen 1+31 a cokoliv výš je VELKÝ PROBLÉM. Tolik k té slavné podpoře asynchronních shaderů u současných nVidií.

PS: Taky to naznačuje, proč si MS i SONY vybralo do konzolí HW od AMD. V době kdy se konzole navrhovaly bylo AMD se svou GCN na míle daleko před soudobou architekturou od NV. V té době měla na trhu pouze Fermi a připravovala Kepler.
Odpovědět1  2
Zajímavé, že na něčem podobném pracují i v AMD.
http:­/­/wccftech.com­/amd­-invest­-cpu­-ipc­-visc­-soft­-machines­/

Hlavně jsem zvědavý na výkon v reálném světě a jak se to bude ­"prát­" o prostředky při spuštění více náročných aplikací najednou. Ať už jsou tu nějaké pořádné testy.
:­-)
Odpovědět0  1
S API Vulkan by to mohlo být dobré zařízení pro mnoho budoucích her.;ogle bude Vulkan na Androidu ­(taky linux­) podporovat, tak by mohl být rozjezd vcelku rychlý.
http:­/­/arstechnica.com­/gadgets­/2015­/08­/android­-to­-support­-vulkan­-graphics­-api­-the­-open­-answer­-to­-metal­-and­-dx12­/
https:­/­/www.youtube.com­/watch?v=P_I8an8jXuM
Rozhodně rychlejší než nástup Vulkanu na desktopu, kde se velmi tlačí proprietární DX12 pro jeden OS. Ale doufám, že v dlouhodobém horizontu se pozice multiplatformního Vulkanu proti DX12 zlepší.
Odpovědět0  0
Řešení od obou firem je velmi podobné. Obojí kóduje v reálném čase pomočí HW encoderu a jediné co by mohlo způsobovat snížení výkonu ­(u obou řešení­) je nahrávání na stejný disk, kde je umístěna hra. Nezávislá měření i zkušenosti uživatelů napříč různými fóry mluví jinak.

GeForce:
http:­/­/images.anandtech.com­/graphs­/graph7492­/59717.png

One of Shadowplay­'s promises was that the overhead from recording would be very low – after all, it needs to be low enough to make always­-on shadow mode viable – and this is another area where the product lives up to NVIDIA­'s claims. To be sure there­'s still some performance degradation from enabling Shadowplay, about 5% by our numbers, but this is small enough that it should be tolerable.

http:­/­/www.anandtech.com­/show­/7492­/the­-geforce­-gtx­-780­-ti­-review­/3

Radeon:
http:­/­/images.anandtech.com­/graphs­/graph8224­/64878.png

As for performance, Game DVR­'s performance hit is minimal as promised. Between the 5 games we benchmarked with Game DVR on, the performance hit was consistent, but also consistently less than 3%, a generally inconsequential reduction.

http:­/­/www.anandtech.com­/show­/8224­/hands­-on­-with­-amds­-gaming­-evolved­-client­-game­-dvr

Takže před rokem to bylo pod 3%, kdy to byla stále ještě beta. Od té doby bylo GVR aktualizováno.

Jsou to jen kecy, že ztráta je u GVR mnohem větší než u Shadowplay. Doporučuji Vám sundat si zelené brýle a nenechávat si vymývat mozek agresivním marketingem jedné z firem.
Odpovědět0  0