reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
17.12.2019, Jan Vítek, aktualita
Zpracování fyziky ve hrách zdaleka není tam, kde by být mohlo. S věrně deformovatelnými objekty se prakticky nesetkáme a že bychom si mohli v pečlivě navrhovaných úrovních demolovat, co se nám zlíbí, na to lze rovnou zapomenout. 
mareknr (256) | 19.12.201910:17
Keď už tu bol spomínaný PhysX, tak aj NVIDIA oznámila PhysX 5.0, ktorý víde budúci rok a ktorý okrem iného bude tiež podporovať The Finite Element Model ­(FEM­). Viď

https:­/­/www.dsogaming.com/
Odpovědět0  0
kochren (74) | 17.12.201912:34
Tak přesně v tohle jsem doufal, když nVidia odkoupila AGEIA PhysX. Bohužel přišlo těžké zklamání... Tak snad se toho někdy dočkám...
Odpovědět9  2
mareknr (256) | 18.12.20198:07
PhysX toto umožňuje už roky a to aj cez CPU. A aj napriek tomu, že je tiež roky súčasťou Unreal Engine, Unity a aj v Cryengine, vývojári hier zatiaľ nič z toho nevyužili. Jediné čo sa využívalo navyše oproti štandardnej funkcionalite, boli eye candy efekty cez GPU a aj to len preto, že si to zaplatila a odrobila NVIDIA sama. Pokiaľ nebude AMD tlačiť toto riešenie tak ako NVIDIA tlačila roky na PhysX, tak len samotné vypustenie von podľa mňa nestačí. Pomôcť by mohlo ešte v dnešnej dobe to, že konzole budú mať silný CPU a že sa na nich začne používať lepšia fyzika. To by mohla byť značná výhoda oproti dobe, kedy sa o toto pokúšala NVIDIA. Tie ale aj tak prídu až o rok.
Odpovědět1  0
wrah666 (6205) | 18.12.201912:33
Počítám, že to trochu naráží ­(či spíš naráželo­) na konfiguraci ­"běžného­" PC. Vývoj hry trvá pár let, vechny dnešní začaly vznikat ještě v době, kdy byla ­"solidní herní mašina­" vybavená procesorem 4c­/4t. Takže když počítali, že 1­-2 jádra sežere DRM, tak si nemohli zas tak moc vyskakovat. Dneska mají i u nejlevnějšího stroje 8 vláken a u běžného 12 a víc, takže by se mohlo prosadit právě nějaké rozumné využití. ­(rozumné, ne DRM over DRM over DRM a to celé ještě několikrát..)
Odpovědět5  1
mareknr (256) | 18.12.201913:03
JJ. Dnešná doba by takémuto riešeniu mohla priať viac. Snáď to tak aj bude.
Odpovědět1  0
Docik (104) | 17.12.201910:19
Jo tohle zní dobře, možná to bude mít i větší dopad než RayTracing. Doufejme v brzkou implementaci, přeci jen dnes už nikdo nekupuje méně jak 6 jader, z 12 jader se stal mainstream a vlastně u příští generace bude mainstream 16 jader, což už teď je možné koupit za dobrou cenu do desktopu. Takže aspoň se CPU při hraní konečně zapotí.
Odpovědět12  1
mareknr (256) | 18.12.20198:11
RayTracing je len v začiatkoch. Dopad na grafiku bude mať postupne oveľa väčší, než je tomu dnes. No a ako píšem aj vyššie, toto ponúka PhysX už roky a nikto takúto fyziku v hrách doteraz nevyužíval. Doba síce pokročila a teraz to už môže byť inak, ale veľké očakávania by som z toho nemal.
Odpovědět0  1
Mitisko (125) | 20.12.201916:28
Nezlob se na mne, ale dle toho co píšeš, tak vůbec nevíš jak technologie RTX komplikuje vývoj her. Taky asi nesleduješ trendy a standardní nastavení náročnost her, to bude na úrovni nových konzolí. Nikdo nebude dělat zvláště hru pro konzoly bez RTX jádra a zase znova pro pár PC nadšenců co vlastní RTX 2080 a vyšší protože, když by si chtěl generovat grafiku při nové hře, která využívá dobrou grafiku a byla by celá generována pomocí RTX, tak ani 2080 by nedosáhla 30fps a to je karta co žere 250W a stojí nemalé peníze a nevím si představit hráče se 144Hz displayem, že si bude hrát AAA titul full RTX na 30fps a bude si libovat...
Nvidia bude muset přiznat porážku technologie ray tracing a to hlavně, proto že se nedostala do nových konzolí, načasování Nvidia zvolila velmi špatně a velmi špatně se také k němu postavila z hlediska ceny grafických karet které jsou označeny RTX a také mizivý nárůst výkonu oproti GTX 10 generace ­(Myslím hrubý grafický výkon 1080Ti vs 2080­).
Karta která by technologiu ray tracing dostala do standardu by musela mít hrubý výkon na úrovni 4x 2080Ti a musela by se vejít do ceny 25 000kč s DPH dokdy to takhle nebude tak ray tracing bude běžet jenom částečně jako v battlefield 5 anebo něco jako přezentují v Minecraftu i když myslím, že ten Minecraft je lež a používají tam dodatečný shadery, které když se využijí aj při normální GPU tak ten rozdíl je minimální a celé ray tracing strácí smysl i u minecraftu.

Také gól do vlastní branky je to, že dostat výkon potřebný na ray tracing do notebooku je dnes prakticky nemožné, protože při zatížení všech jader grafiky­(rendering­/ray tracing­) by bylo TDP tak vysoké že žadní herní NB by to neuchladil a hry co nejdou hrát ani na konzolách ani na noteboocích nemají šanci na úspěch v dnešní době a to Nvidia ve své nadutosti nepředpokládá a tak aj dopadne...

Stačí se podívat na hrubí výkon RTX 2070 max­-q ­(mobile­) vs GTX 1660 Ti ­(mobile­) rozdíl skoro 0, rozdíl v ceně markantní, to se rovná neúspěch!
Odpovědět1  0
mareknr (256) | 20.12.201917:14
Nevies aku HW podporu budu mat konzole pre Raytracing. Kludne to moze skoncit tak, ze samostatne jadra pre akceleraciu RT budu pouzivat tiez. Ale to je uplne jedno. Na PC sa budu porty tychto hier robit cez standardizovane API. Teda DirectX alebo Vulkan. NVIDIA Turing grafiky maju implementovanu podporu pre DXR. Nikto teda nerobi implementaciu RT specialne na Nvidiacke RT jadra. Volaju sa na to standardizovane funkcie resp. shadre definovane v ramci DXR ­(alebo Vulkanu­), na vyvoji ktoreho sa NVIDIA tiez podielala. Samotne RTX jadra a teda Nvidiacka implementacia DXR je pred vyvojarmi skryta za pouzitym grafickym API. To uz je na interpretacii tohto API, ktoru si riesi NVDIA v ovladacoch. Z toho co si napisal vidim, ze tomuto nerozumies ty. Nie ze ja. Ty beries za fakty nezmyselne tvrdenia ludi, ktorym z nejakeho divbehi dovodu lezia v zaludku RTX jadra. Sa cudujem ci vsetko sa dnes dokaze vykonstruovat.

To bolo za prve. Za druhe, Nikto teraz predsa nesiel do RT teraz s cielom, ze sa budu moderne hry cele renderovat cez Path tracing, ci iny algoritnus, ktory RT vyuziva. Bolo jasne kazdemu kto tuto oblast sleduje, ze sa bude pouzivat hybridny rendering a ze RT bude postupne rasterizaciu doplnat. Takze tvoje argumenty ohladom toho, ze je asi nieco neslychane, ze ani RTX 2080 by nedala celoscenovy rendering pouzitim RT na hratelne FPS, je uplne irelevantny. To nebude mozne este najblizsich 15 rokov. Takze asi mala NV s implementaciou RT cakat dovtedy? Asi nie. Ale tipujem, ze tebe by stacilo, aby pockala na AMD. Tipujem, ze tam je pes zakopany. AMD RT nema, tak je ti teraz fuj.

Je utrpenie citat taketo komentare, kde si autor doslova konstruuje argumenty tak, aby v nich NV vypadala ako porazena firma. Pricom realne NV svojou implementaciou DXR priniesla na trh grafiky, ktore maju niekolkonasobne vyssi vykon v akceleracii RT. Tak v com ma prosim ta priznat porazku?

Btw RTX grafiky sa podla poslednych kvartalnych vysledkov NV predavaju velmi dobre. Nie je to ziadny neuspech.
Odpovědět0  0
honza1616 (3623) | 20.12.201918:49
někdo s RT musel přijít jako první a jestli to bylo ted nebo za 5 let je úplně jedno, nikdo tě přece nenutí RT ve hře zapínat, stejně tak tě nikdo nenutí si kupovat nový HW, tim spíš pokud je pro tebe výkonnostní skok mizerný, tak si místo RTX2080 Super kup GTX1080ti, ceny jsou dnes srovnatelné
PS: hrubý výkon má RTX2080Super o 14% vyšší než GTX1080ti, a to stojí ty grafiky +­- stejně
https:­/­/www.techpowerup.com­/gpu­-specs­/geforce­-gtx­-1080­-ti.c2877


AMD tomto směru ujel vlak protože nejdřív tvrdili že nepočítají s RT protože je na to příliš brzy,
a ejhle už pracují na RT pro konzole a nejspíš tedy i pro GPU v desktopu, proč ? protože Nvidie ukázal směr nového trendu a AMD se ted snaží dohnat ten vlak co mu ujíždí protože nechtějí být pozadu, jsem zvědav co budou odpůrci RT kupovat za HW až ho začne nabízet i AMD,
asi začnou nadávat na Nvidii i AMD :D :D
Odpovědět1  0
mareknr (256) | 20.12.201919:35
To vieš. Pre niektorých ludí je NVIDIA v každom prípade tá zlá, čo iba škodí. Argumenty pre takéto tvrdenia sa vždy nejak divotvorne vytvoria, aby to tak u niektorých ludí vyzeralo. Teraz keď prišli ako prvý s násobne lepšou podporou akcelerácie RT, tak sa dozvedáš aké je to nahovno, že vlastne NV prehrala a podobné žvásty.

"jsem zvědav co budou odpůrci RT kupovat za HW až ho začne nabízet i AMD,
asi začnou nadávat na Nvidii i AMD­"

Nadávať budú samozrejme zasa na NV. Potom to bude o tom koho jadrá pre RT sú tie najsprávnejšie a najlepšie pre zákazníkov. Samozrejme to budú tie od AMD.
Odpovědět1  0
honza1616 (3623) | 19.12.201915:52
tobě přijde cena 23000 jako dobrá za vyšší mainstream ? ty budeš asi dobře zazobanej, že nevíš co s penězma když je pro tebe 16 jádro za 23000 mainstream

a čekáš snad že AMD příští rok opět zvedne počet jader nebo co ?? to jseš hodně naivní
AMD Intelu uteklo a jak sami tvrdí, už nechtějí být tou levnou firmou, nemá cenu se hnát za něčím co už mají, ted přijde ten čas kdy můžou zvolnit a mít vyšší čistý zisk a marže než doposud a když nebudou muset tolik investovat do vývoje zvednou se jim marže z prodeje, což jim pak zvýší cenu akcií
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.