Příchod Crysis 3 ve 2013. GTX 680+4770 a chodilo vše krásně. Next gen grafika jak prase.
Dnes po 10 letech 4090+13900K 10-15x silnější čipy a potřebujeme ,,fake´´ fps, aby jsme měli dobrý pocit u srdíčka, že to nějak chodí.
Každej tvrdí, jak je to dobrá funkce. Ano možná to vylepší plynulost obrazu, ale k čemu vám je plynulost při 100FPS, když latence pc je jako při 50FPS.
Dříve se hry optimalizovali pro nejnovější hardwear, kde ty hry chodili v pohodě i o 3-5 let starších pc. Dnes silné stroje,jak prase, neoptimalizované hry,FSR/DLSS, kde v podstatě nehrajeme ani na nativní rozlišení a ani tak to kolikrát nedokáže člověk udržet okolo 120-144FPS.
Abych řekl vlastní zkušenost, tak dřív jsem honil každé fpsko. Měl jsem 3070+9900K a chtěl jsem stabilně všude pokud možno těch 144FPS.
Provedl jsem upgrade na 3080+13600K a ty hry nechodí většinou ani na vysoký, bez RT a zapnutým DLSS na více jak 120FPS, tak jsem se rozhodl hrát vše max na uzamčených 120FPS, protože s dnešními hrami a hlavně jejich optimalizacemi nemá cenu ani pořizovat 144Hz monitor, natož nějakej 240Hz, pokud nehraje člověk 24/7 multiplayery.
Jsem zvědavej co nás čeká za dalších 5 let. Upscalované rozlišení obrazu s vymyšlenými fps. DLSS a FSR je v rámci možností fajn. Sice to někde je horší, někde lepší, ale aspoň to v některých titulech dokáže vylepšit obraz, ale stejně se já už nezbavím toho pocitu, že s tím výkonemco tu dnes máme k dispozici a že při 1440P hraju s DLSS vlastně na nižší rozlišení, než FullHD, tak ty hry chodí opravdu mizerně.
Hlavně, že je vše dražší, více náročnější a grafický vizuál je k zblití.
Odpovědět1 0
Ale prd, říká se tomu vývoj... FarCry na Ultra vodu jsem jel jen já z celé ulice na Athlonu 3200+, GeForce 6600 GT (128MB VRAM). Teď jsou ty hry daleko náročnější, enginy pokročilejší, lepší fyzika apod... Nemůžeš to přece srovnávat, to je dost mimo. Jiná věc je např. dějová a "feelingová" hodnota - např. u Kingdom Come jde vidět, že to dělali fakt srdcaři, prostě borci z Mafie, kdežto Cyberpunk - totálně odfláknuté, nuda... jsem to dohrál a říkal si WTF, co to bylo... u KC - ještě, ještě!!! Sorryjako, ale už jen pro grafiku si spočítej rozdíl mezi těmi 640x480px nebo kolik jsme měli vs. třeba 1440p. A ta náročnost nejde nahoru lineárně s vyšším rozlišením...
Odpovědět0 1
DLSS a FSR v podstatě dělá to samé co se používá u MPEG, H264, H265, AVI komprese videa už desítky let. Z jednoho klíčového snímku se dopočítávají mezisnímky s minimálními rozdíly.
Akorát u videa to šetří bitrate a u GPU to šetří výkon. Proč renderovat celý obraz znovu a znovu, když zvláště vzdálené objekty se sotva pohnou o jeden pixel? Nebo při rozhlížení se (rotaci kamery) se vzdálené objekty v podstatě nemění a stačí pouze změnit XY polohu již vyrenderovaného obrazu. Ten samý efekt se používá u Google Street kde se rozhlížíš po ulici kolem se ale je to jenom 2D obrázek a nic se nerenderuje v 3D. Použiji na to algoritmy známé z komprese videa a jenom obraz modifikuji a tím ušetřím obrovskou porci výkonu GPU. Tedy v budoucnu i slabá GPU bude násobně rychlejší než dnešní Hi-end a tedy ceny GPU by mohly hodně padnout dolů.
Jinak co se týče odezvy ovládání myši (input lag), tak přece není problém aby engine hry běžel třeba s 2x vyšší frekvencí než vykreslování obrazu. Input lag tak může být minimální. Když na to přijde tak engine hry klidně může běžet třeba na 240 Hz, zatímco hra se renderuje s 24 FPS a DLSS/FSR/Apple NPU to dopočítává na 144 FPS.
Ostatně tohle je také budoucnost. Dopočítávat vše co jde a to co nejde vyrenderuji přes GPU. Ano bude to mít artefakty oproti RAW renderu, ale to má i každý video kodek oproti RAW videu. Ale když to není postřehnutelné tak to nevadí. Good enough.
Odpovědět0 0
Tady to generování snímků buď říká zákazníkovi, že si může tedy koupit slabší grafiku (i tak předraženou), protože bude mít fps jako ta lepší bez generování, nebo tím výrobci říkají, že zkrátka ty nenažrané grafiky nemají dost výkonu, takže se musí používat různé fejkovní berličky, aby se vůbec dalo něco plynule hrát. Optimalizace her dnes nic moc. Vyberte si...Samozřejmě to myslím obecně, není to šťouchnutí jen do AMD topení...
Odpovědět0 1
Přesně, předražené GPU, předražené MB, předražené CPU, a navíc spotřeba CPU+GPU = 400W. Já ti rozumím.
Přitom pro hraní konzolových AAA titulů jako Assasin Creed: Mirage včetně raytracingu ti stačí nový iPhone 15 Pro a výkonným ARM procesorem se spotřebou 5W. Inu to je evoluce, a kdo je tady dinosaurus určený k vyhynutí je poměrně jasné.
Sranda je, že Apple umí NPU jednotku pro akceleraci AI taky používat na generování DLSS/FSR pro GPU. Velmi chytré řešení. To v x86 není možné, protože AMD a Intel ještě ani žádné NPU nemají.
Přejdi na ARM a duše tvá spokojena navždy bude, ámen.
Odpovědět0 8
Máte pravdu, na to náhlé probuzení x86 ohledně NPU AI jednotek jsem zapomněl. Popravdě jsem nečekal že x86 výrobci před blížícím se zánikem x86 vůbec nějaká NPU budou integrovat. Myslel jsem že to nechají v klidu dožít, ale ono ne.
Ale stejně ten výkon 12 TOPS toho Phoenixu ............ pitomej iPhone 15 Pro má 35 TOPS, tedy 3x víc.
Apple M3 bude mít 70 TOPS.
Výkonově ten Phoenix vykouzlí majitelům na tváři smutek, ale co čekat když celá x86 je k pláči.
Odpovědět0 4
A koľko FPS dáva Assasin na iPhone 15 Pro?
Keď ten iPhone 15 Pro napojím na 43" monitor vyzerajú obidva obrazy rovnako?
Dokáže iPhone 15 Pro rovnaký výkon udržať aj niekoľko hodín hrania?
Odpovědět1 0
iPhone 14 Pro má 120 Hz display (o tom si většina PCčkářů může nechat zdát), takže to valí na 120 FPS.
Inu se nediv, dnešní iPhone 15 Pro má stejné 2,6 TFlops jako Radeon RX560 s TDP75W. Plus samozřejmě Apple umí HW raytracing a DLSS/FPS přes NPU jednotky, takže reálný grafický výkon je cca 4x násobný, tedy cca 10 Tflops (no a to je hodnota kterou má nejnovější Play Station 5).
Prostě nový iPhone 15 Pro má grafický výkon jako plnotučná konzole PS5 nebo XBSX. To je prostě fakt.
Odpovědět0 0
Jee zase ten jabkotroll :-D Čekal jsem kdy vytáhne ten A17 - nejsi trošku zklamán, že je to úplná sračka a nějak u toho nepomohl 3nm proces? :-D Hádej jaký bude výkonnostní skok u Zen5 vs. Zen4 a proč asi? :-D Jinak, ty jsi úplně mimo... Ono to má 35TOPS, ale v těchto výpočtech (AI) by se to mělo srovnávat s GPU... RTX 3090 má 35TFLOPS... v TOPS je to kolik prosím? :-D Srovnáváš prostě úplně jiné věci:-D Náklaďák s osobákem do města...
Odpovědět1 0
No vidíte a predsa je to najväčší ťahák pomýlených zákazníkov nvidie…
Odpovědět0 0
Je hezké, že díky AMD můžu generování snímků vyzkoušet i na své RTX2060 Super ;)
Odpovědět3 0
Áno, je to “hezké” od AMD, keďže sa musí starať aj o zákazníkov konkurencie, ktorá na nich trošku kaká ;)
Odpovědět1 3
Větší volovinu jsem nečetl! To je jako bych napsal, že prioritou naší vlády je můj blahobyt. Všichni o něm mluví, ale nikdo ho ještě neviděl. To je FSR3.
Odpovědět0 0
Ano. Je super pripravit horsie riesenie ako kunkurencia, len aby sme nieco mali, dat to akoze vsetkym a byt za hrdinu. A to pises, ze pomyleni su zakaznici NVIDIe. :-) BTW., vychadzam iba z porovnani DLSS vs. FSR. O FSR3 zatial nic nevieme co sa tyka kvality. Ale take nieco teba vlastne ani nezaujima, ze? Okrem toho NV nedavno uviedla ray reconstruction, co je zrejme dalsia ficura, ktoru AMD mozno za rok dobehne. A mozmo nikdy.
Odpovědět0 1
Tohle je o odlišném přístupu. nVidia připravuje vlastní uzavřené řešení. Připraví si hardware a software na míru, soustředí se hlavně na podporu poslední generace a "vymazlí" si svoje řešení. Navíc když běží současně s vývojem hardware, má ho i rychle po uvedení na trh.
Na druhou stranu AMD tvoří (částečně i otevřené) řešení s širší podporou a vyvíjí ho nejen pro svůj hardware. Takové řešení trvá vyvinout déle a nebude dosahovat takových kvalit, může být ale zase široce využíváno.
Majitel RTXx0x0 bude samozřejmně nadšen z DLSS a pro něj to je jasná volba. Pokud si ale někdo koupí třeba GTX16x0 (stále se prodávají), může takový človek ocenit, že má také možnost využít upscalovaní. Možná né tak kvalitní a rychle vyvinuté, ale v danou chvíli jediné dostupné.
Za mě je dobré, že existuje obojí a zákazník si může vybrat.
Odpovědět1 0
"Za mě je dobré, že existuje obojí a zákazník si může vybrat."
Mam na to rovnaky nazor (so vsetkym co si napisal). Skoda, ze niektori ludia by najradsej DLSS vymazali lebo nie je open a ze je to nejake zlo. Dokonca niektori siria nezmysly o tom, ze to ani nie je technologia ale iba marketing.
Odpovědět0 0
Skús si tu tvoju technológiu použiť pri rýchlych MP hrách, ako ti 120 dlss-kovaných snimkov náramne pomôže…
Navyše väčšinou sú tie výsledky rozumne použiteľné až v prípade, že ma grafika dosť rasterizačného výkonu, na aspoň 60 fps, aby tých dopočitaných (kvalitatívne horších) snímkov nebolo príliš a neprejavili sa výraznejšie defekty obrazu.
No a čo sa toho týka, tak mne osobne je už jedno, či mi v SP hre vykreslí grafika 60 snimkov, alebo 120, zatiaľ čo pri MP mi naozaj záleží, či ide o reálnych 120fps vs fakeových 60fps.
Dlss je fajn, rovnako, ako aj fsr, ale ich použiteľnosť je značne obmedzená vyššie uvedeným a príliš sa nato, obzvlášť nvidia, spolieha. Nevidel by som zase taký zázrak v podstrkávani falošných snimkov do výpočtu.
Odpovědět0 0
Hravam iba single player hry. Multak ma vobec nezaujima. S DLSS mozem mat lepsi alebo porovnatelne dobry obraz ako nativ, co mi umoznuje hrat s lepsimi FPS alebo v lepsich detailoch. Pri FG zasa mas lepsiu plynulost obrazu. Nikde sa nehovori, ze je to zazrak. Su to uzitocne technologie, ktore sa snazi AMD dohnat. FSR ako take nie je zle, ale na DLSS nema. U FSR3 sa este uvidi. Za mna neznamena, ze je nieco lepsie len preto, ked je to dostupne pre vacsiu cast ludi. Je to sice fajn a dobre pre tych co nemaju na vyber, ale ak proprietarne riesenie ma lepsiu kvalitu a mozem ho vyuzit, tak chcem prave to. O nic ine nejde.
Odpovědět0 0
DLSS jak se zdá je modulární koncept. V budoucnu se budou připojovat nové funkce. Tensor jádra s OFA jsou na to projektované. AMD bude vše cpát má standardní jádra až jim nezbude výkon na stínování, mapování textur.....:-)
Odpovědět0 1
Veď ty si sám protirečíš odpoveďou nižšie na tento komentár. Ty si taky maly lolo ešte… :)
Odpovědět0 0
Jasne. V com presne si protirecim lolo? : )
Odpovědět0 0
Jakube nepodléhej PR AMD. Nevyzkoušíš nebudeš mít výkon. Nebudeš mít Anti-lag. Generovat snímky budou pomalá CUDA jádra s vysokou latencí. Jak to asi dopadne? A to i když má tvá karta výrazně výkonnější Tensor jádra.
Odpovědět0 0
Ale já přece mluvil práve o vyzkoušení. U FSR3 může vyjít hromada testů na různém hardware, bohužel tedy většinou bez porovnání s DLSS3. Ty testy se mohou zaměřit na výkon a kvalitu, třeba nakonec konstatovat, že to má svoje linity, ale půjde to aspoň otestovat. A nemusím si kupovat novou grafiku, abych si to vyzkoušel i sám ;)
Odpovědět1 0