reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od mareknr
DLSS na quality a casto aj na balanced v 4K aj 2K dost tazko rozoznas od nativu. Dokonca ak chces mat aj AA, tak je DLSS lepsia volba ako nativ s TAA. Je to per hra, takze su priklady aj opacne, ale to vseobecne zahodenie proste nesedi.
No a prinos RT je nulovy len tam, kde sa pouzil iba aby sa nepovedalo resp. kvoli marketingu. Tam kde sa ale vyuzil vo vacsej miere alebo kde sa rovno vyuzil PT, tak je rozdiel oproti rasterizacii dost velky. Pokial niekto tvrdi, ze raytracing v CP alebo Alan Wake 2 nie je vidiet alebo ze tam nie je prinosny, je to prinajmensom velka ignoracia.
Co sa tyka VRAM, tak ani vsetky GPU od AMD predsa nemaju 16GB VRAM. Tym zrovnanim som myslel na RTX 4070 Ti, ktora dostala namiesto 12 GB uz 16 a teda minimalne tolko uz maju aj 4080 a 4090. U nizsich urovniach, ktore su urcene na 2K alebo FHD staci aj 12GB. Je rozdiel medzi tym, co si hra alokuje, ked ma priestor a co realne potrebuje. Suhlasil by som ak by islo o 8GB, ale 12GB snad nestaci iba pre 4K.
No a 7900GRE dava na 100% zmysel iba ak si clovek povie, ze vsetko, v com je NV lepsia alebo podporuje navyse, je kravovina, tak potom hej. Inak sa vzdy da rozmyslat nad tym, ci sa ti oplati priplacat za nieco este lepsie.
Odpovědět0  0
Dolezita je aj kvalita vystupu. A ta je na strane DLSS. Dalsia vec je vykon v RT plus na strane NV je aj lepsia efektivita. AMD je zasa o nieco lacnejsia. VRAM sa so super verziami zrovnala. Takze ak niekto nema silnu mantru ohladom pomeru cena­/vykon, je to skor naopak a nie je iny dovod preco kupovat AMD. NV ponuka vykon v rasterizacii aj v RT, prinasa nove technologie, ktore AMD iba dotahuje. V podstate AMD je aktualne iba lacnejsia alternativa s kompromismi.
Odpovědět0  0
Ale prosim ta. Si obycajny fanATIk, co riesi nezmysly. Tu Geforce kartu ti moc neverim, ale keby si ju aj mal, tak to nic neznamena vzhladom na to co pises do diskusii.
Odpovědět0  1
S tvojou ­"logikou­" mozes ist tak maximalne k DDmu.
Odpovědět0  1
Kde sa hram na to, ze mam vzdy pravdu? Napisal som presne taky priklad ako dal on. Tiez zalozeny len na ciselnom oznaceni.
Odpovědět0  3
Zavisi o ktorej GPU rade sa bavime, ze? Pretoze Zubik si tiez iba vytiahol, co sa mu hodi, aby si klasicky kopol do firmy, ktoru nema rad. Totiz nielen NVIDIA, ale aj AMD urobilo rovnaky ­"trik­". Zobrali nastupcov nizsich rad GPU, preznacili ich na vyssie rady a predavaju ich drahsie, az mozno na par vynimiek, podla toho ako sa na to pozeras. Ked zoberies do uvahy aj cenu wendacku, tak zistis, ze zasa na inych urovniach ponuka aj NV viac vykonu ako to bolo v predchadzajucej generacii a nie je to iba o 5%. Ale to sa zasa asi nehodi do kramu vam. So 4060tkou je to o nicom a v tomto mam podobny nazor ak teda nezaratame vykon v RT ci podpora lepsieho upscalingu aj FG ­(co chapem, ze su iba bonusy, ale nemali by sme sa sa tvarit, ze neexistuju­). To vy zasa neberiete do uvahy, lebo sa vam to nehodi.
Odpovědět0  3
Teraz si pozrite ako vyzera obraz bez upscalingu a interpolacie snimkov. Uz ten ­"nativ­" byva neostry ci maznuty a casto je potom prave s DLSS lepsi obraz, pretoze DLSS neriesi iba upscaling. A ked si clovek odmysli spomienkovy optimizmus, vyzeraju dnes hry ovela lepsie ako kedysi.
Odpovědět1  5
Aky je rozdiel nedzi 6800XT a 7800XT? Je to aspon tych 5%? :­-­)
Odpovědět0  4
https:­/­/www.techspot.com­/review­/2734­-amd­-radeon­-7800­-xt­/

V rasterizacii je 7800 rychlejsia od 3 do 10% ako 4070tka. V RT zasa o 10% pomalsia. Plus so 4070tkou mas pristup ku kvalitnejsiemu upscalingu, frame generation a k inde nedostupnemu ray­-reconstruction. Ak to ale niekoho nezaujima, tak sa neoplati tych 100E priplacat. Co ale tiez nechapem je, ze niekto kupuje 4060 Ti. Ta je citelne pomalsia oproti 7800 aj v rasterizacii aj v raytracingu. Ked uz chce niekto NV GPU a nic ine, tak uz by som si na jeho mieste priplatil na 4070tku. Ale 4060 Ti je pri rovnakej cene ako 7800 XT proste nonsense.
Odpovědět0  0
Jasne. V com presne si protirecim lolo? : )
Odpovědět0  0
Hravam iba single player hry. Multak ma vobec nezaujima. S DLSS mozem mat lepsi alebo porovnatelne dobry obraz ako nativ, co mi umoznuje hrat s lepsimi FPS alebo v lepsich detailoch. Pri FG zasa mas lepsiu plynulost obrazu. Nikde sa nehovori, ze je to zazrak. Su to uzitocne technologie, ktore sa snazi AMD dohnat. FSR ako take nie je zle, ale na DLSS nema. U FSR3 sa este uvidi. Za mna neznamena, ze je nieco lepsie len preto, ked je to dostupne pre vacsiu cast ludi. Je to sice fajn a dobre pre tych co nemaju na vyber, ale ak proprietarne riesenie ma lepsiu kvalitu a mozem ho vyuzit, tak chcem prave to. O nic ine nejde.
Odpovědět0  0
"Za mě je dobré, že existuje obojí a zákazník si může vybrat.­"

Mam na to rovnaky nazor ­(so vsetkym co si napisal­). Skoda, ze niektori ludia by najradsej DLSS vymazali lebo nie je open a ze je to nejake zlo. Dokonca niektori siria nezmysly o tom, ze to ani nie je technologia ale iba marketing.
Odpovědět0  0
Ano. Je super pripravit horsie riesenie ako kunkurencia, len aby sme nieco mali, dat to akoze vsetkym a byt za hrdinu. A to pises, ze pomyleni su zakaznici NVIDIe. :­-­) BTW., vychadzam iba z porovnani DLSS vs. FSR. O FSR3 zatial nic nevieme co sa tyka kvality. Ale take nieco teba vlastne ani nezaujima, ze? Okrem toho NV nedavno uviedla ray reconstruction, co je zrejme dalsia ficura, ktoru AMD mozno za rok dobehne. A mozmo nikdy.
Odpovědět0  1
Takze najlepsie je sprasit UE5 tak, aby v nom NVIDIA GPU nepodavali taky vykon na aky maju? Sorry ale RX 7900 XT ani nahodou nie je vykonnejsia ako RTX 4080. Ved tu normalne iba o par percent v priemere prekonava RX 7900 XTX a tu je odrazu iba o nejakych 17% za 4090tkou, ked normalne je to o 30%. Ale tak v pohode. Ked vam to robi radost mozete tomu verit.
Odpovědět0  1
Uz to mam predobjednane na Steame, tak hadam nic take neoznamia. :­-)
Odpovědět0  0
Aj internet by som zakazal. Hnus. Fuj.
Odpovědět3  0
V pohode. Ja Vas nechcem presviedcat, aby ste si kupil VR. Len som napisal svoj nazor. Co sa tyka vydrze baterie bol som jeden z tych, co si kupili na Quest 2 od Kiwi lepsi headstrap aj pridavnou bateriou, takze som mal celkovu vydrz dvojnasobnu oproti zakladu. S vahou som tiez problem nemal a s novym strapom drzal headset na hlave lepsie a pohodlnejsie ako predtym. Ale aj tak vzdy po 2 alebo 3 hodinach uz koncim lebo som z toho unaveny. Kedysi som daval aj dlhsie sessions, ale teraz mi staci kratsi cas. Preto s mensou vydrzou baterie nemam nejak problem.
Odpovědět0  0
Nepotrebujes 40m2 garaz. Staci aj 2x2 metre, aby si sa zabavil aj ked najlepsie je mat na to samostatnu izbu s 4x5m. Mam presne taketo priestory a je to uplne v pohode.
Odpovědět0  0
Ked si zoberiem taky Quest 2, tak ten sa da kupit za celkom slusnu sumu a da sa s nim hrat aj bez PC. K PC sa da pripojit bezdrotovo takze je mozne hrat aj bex kabla. Na jedno nabitie vydrzi 2­-3 hodiny. Nevyhoda Questu je, ze si treba kupit WiFi router s podporou 5GHz, na co mne bez problemov stacil Deco x20 a tiez za okolo 120E iny strap ­(ten co Meta dava v zaklade je nieco strasne­) a vnutornu pohodlnejsiu penu.

No a u hier zavisinid toho, co ma clovek rad. Mimo Alyx napriklad Walking Dead 1 a 2, Gallery 1 a 2 alebo z Oculus Store Echo, Defense Grid 2 a dalsie. S Questom su dostupne hry zo Steam VR, z Oculys Store a aj Meta Store ciste iba pre headset bez PC ­(takto som si zahral Resident Evil 4­). Tiez aby som nezabudol, hrat sa takto daju aj Skyrim alebo Fallout 4. Pripadne hororovky ako Dreadhalls.

Teraz ma vyjst Quest 3, na ktory urcite pripravia nove hry a tiez byde zaujimave si zablbnut s novymi AR moznostami, ktore ma Quest 3 priniest. Na ten by som si osobne pockal.
Odpovědět0  0
Half Life Alyx je stvoreny presne pre ludi ako ty. :D Kde nebudes hrat half life hru, ale budes priamo v nej. Ked uz mas alebo budes mat RT kartu, odporucam investovat aj do VR.
Odpovědět1  1
Najskor by som chcel vidiet vykon zrovnany s i7­/i9 konkurenciou. Ale k icomu to urcite nebude. Nielenze dostanes vyborny CPU na pracu, ale bude dobre zvladat aj hry. Nevidim zatial jediny dovod na kritiku.
Odpovědět2  0
Ak ide iba o hranie, tak ano. Ale PC potrebujes aj kvoli inym veciam. Akurat nemusi byt herne na com sa usetri kopec penazi a aj spotreba je potom ina. :­-­).
Odpovědět1  0
Tiez si myslim to iste. Po exoduse velkych vydavatelov z GFN ked presla z bety do produkcie, sa postupne vracaju. Sice pozvolna, ale kniznica sa zlepsuje. Pomoct by mala aj dohoda medzi MS a NV, podla ktorej by mali najblizsich 10 rokov hry z MS studii vychadzat aj na GFN. Uvidime ako to zapracuju. Nieco uz prislo zo Steamu, ale to je len doslova par hier. GFN sa ale inregruje s MS Store a mali by byt v GFN dostupne aj vybrane hry z Game passu. Toto ked sa dotiahne, bude velke plus pre GFN.

Co sa tyka technickej stranky, tazko presvedcis ludi, ktori budu tuto sluzbu hateovat len preto, ze za nou stoji NV. Alebo ludi, ktori ju skusali s free urovnou a este aj s nedostatocnym internetom. Tak ti budu tvrdit, ze obraz je rozmazany ci kostickovy. Z ich pohladu to aj bude pravda kedze taky obraz mali, ale uz si nevedia alebo nechcu predstavit, ze s adekvatnym pripojenim a platenymi urovnami je to ovela lepsie.
Odpovědět1  0
A samozrejme GFN nie je na kooperativne hranie CODka ci CSka. Ale single player hry sa na tom hraju tak, ze mas problem rozoznat, ze nehras lokalne. Uz som takto bez problemov odohral viacero hier.
Odpovědět1  0
Geforce NOW podporuje rozlisenia do 4K a do 120Hz. Odozva je vynikajuca. Na Ultimate tier s ­"RTX 4080­" hras skoro ako na lokale ­(latenciu na najblizsi server EU Central mam 18ms­). A mas tam podporovane vsetky modrne technologie ­(vratane DLSS, FG, DLAA­) plus vyssi vykon v RT nez ma aktualne najvykonnejsia desktopova grafika od AMD. Takze si na tom mozes zahrat Cyberpunk s pathtracingom. A tiez je viacero hier streamovanych s HDR.
No a spotreba dat je do 75Mbit, co je aktualne maximum ­(pri mojom aktualnom nastaveni mi to robi okolo 22GB za hodinu­). Nemusis sa bat, ze by bol obraz kostickovany alebo rozmazany. Mam ale samozrejme optiku so 400Mbit, co je vyhoda.
Inak naozaj si myslis, ze niekto so 4090tkou by potreboval na nej hrat cez cloud so slabsim vykonom, nez ma doma? Ci posledna veta bola len nejaky vykrik do tmy?
Odpovědět1  0
Kvoli praci mam tiez NTB co som pisal. Tiez upgradujem az minimalne po 5 rokoch ­(a s upgradami PC som uz skoncil po GTX 1080­). Radsej ale hram na TV. Plus za tych 7 rokov ako pises sa urcite v GFN par krat HW obmeni. Na 4080 po vydani presli velkom rychlo. Ale jasne. To je iba prenajom stroja na hranie a ani nie vsetky hry si tam mozes zahrat. Pre mna je tam ale viaceto hier, ktore postupne hram a v detailoch na ake by som mohol zabudnut s PC kde mam i7 3770K a GTX 1080 ci s aktualnym NTB.

Neviem preco to neeviduju na strankach, ale minimalne najvacsie servre v EU a USA su upgradnute. Mozno nie su este vynovene vsetky servre partnerov, lebo nie vsade je GFN sprostredovane priamo NVIDIou. Upgrade zacal v januari ­(uz vtedy som mal cez EU Central server dostupnu ­"4080tku­") a malo sa to ukoncit tusim do konca maja.
Odpovědět1  1
Tak pockat. Ako Founder platim za Ultimate 100E na pol roka, co je za 2 roky 400E. Len 4090tka stoji minimalne 1500E ak nie je to minimum este vyssie. Neviem o com teraz hovoris. Nemylis si to s inou sluzbou?
Ja tuto sluzbu vyuzivam na hranie na velkej TV so 4K rozlisenim. K monitoru s rozlisenim 3440x1440p mam NTB s mobilnou RTX 3070 Ti, ktory 4K rozlisenie nedava. A to ten NTB stal 2300E. To je na Geforce NOW na 11,5 roka. Naozaj sa ti zda platba za GFN vela?
Aj keby som nebol founder, tak by ma to vyslo 20E mesacne, co je 240E na rok a 480E za dva roky. A to ani nehovorim o tom, ze spotreba elektriny je u teba ako klienta tiez minimalna. Praveze ekonomicky to dava najvacsi zmysel. Si zober, ze predtym tam bola 3080 s threadripperom z rady 3xxx, ktoru vymenili za 4080 s threadripperom z rady 5xxx. Si spocitaj kolko by ta stalo kupovat len CPU a GPU, ktote by boli podobne vykonne ako tieto serverove komponenty.
BTW upgrade na 4080 a nove threadrippery uz prebehol za minuly polrok, takze je uz k dispozicii. Mam na nom rozohrany Cyberpunk s pathtracingom.
Odpovědět0  2
DLSS je dobre aj ako antialiasing a k hraniu v 4K aj s Pathtracingom ako u Cyberpunku. Takto na vykon nakladne hry budu potrebovat upscaling aj na Geforce NOW. A co sa tyka tej kompresie, skus si nieco cez tuto sluzbu pustit. Cudoval by si sa aky kvalitna a responzivna je.
Odpovědět0  1
NV ma maslo na hlave. To je jasne. A aj DLSS ma svoje chyby. AMD by ale aj tak nemalo brzdit jeho implementaciu ­(na zaklade informacii nielen v tomto clanku ale aj inych webov, si myslim, ze to AMD naozaj robi­). V tomto pripade ma maslo na hlave prave tato firma. To je cele.
Odpovědět2  2
Ako hovori znamy klasik. Napodobne. :­-D

Akurat citam v komentaroch u DDeho ako funguje FSR v Jedi Survivor. Ze napriklaf v rychlom pohybe vidis hrdinu alebo jeho mec niekolkokrat. A to je AMD sponzorovana hra. Ak to bude tak aj v Starfielde, tak dakujem pekne.
Odpovědět0  1
Tieto diskusie som pocas rokov viedol s vela ludmi, ktori ad hoc kritizovali kazdu hru, ktora vyuzivala technologie od NV. NV mohla za tzv. ­"neoptimalizaciu­", jej kniznice mohli za vsetky chyby v hrach alebo zevraj NV podkopavala vykon AMD kariet. Vzdy bolo jasno, ze to tak je aj ked to nedavalo zmysel ­(ked napriklad pouzite GW kniznice v hre riesili nieco uplne ine nez co sa na ne zvalovalo­). Takze o ciernobielom videni jasnom nepriatelovi uz viem svoje.
Odpovědět3  3
Tym, ze NV presunie DLSS do open source sa nejakym zazrakom objavi v AMD grafikach obdoba tensor cores? Alebo si myslite, ze AMD prida upravenu vetvu DLSS pre svoje GPU? Myslite si, ze NV upravuje nejak FSR? Alebo ze odrazu bude DLSS chodit na starsich GPU pretoze ho staci vydat ako open source?
Odpovědět1  1
Casto som videl pri FSR shimering alebo preblikavanie tenkych linii ako drotov v plote. DLSS taketo detaily zvlada lepsie ­(stretavas sa s problemami menej casto­).
Odpovědět1  2
"Ale je mi jasne, ze tohle je uz ­­'advancovana­­' uvaha, ve ktere neni cerno­­-bily nepritel, na ktereho mohu plivat siru, aniz vlastne vubec neco vim ..­"

Skoda, ze sa takto nerozmysla aj pri NV, kde je nepriatel vzdy jasne dany. :­-)
Odpovědět2  2
Verit tomu mozes ked ti to ulahci sa nekriticky pozerat na AMD, ale ked sa pozries na hry v tabulkach v clanku a aj v uvedenych zdrojoch, tak to skor nasvedcuje tomu, ze NV teraz hovori pravdu. A pre nich je to aj jedno, kedze ich technologia je lepsia. AMD ma skor problem s porovnavanim a tak sa k tomu prisposobili.
Odpovědět1  1
NVIDIA ma pre svohe technologie ak pripraveny HW. Ako u DLSS ma Tensor Cores a na tom vystavany flow grafickej pipeline. U FG je to zasa pokrocilejsi optical flow ­(ci ako tomu hovoria­). Ma to sice nevyhody, ze predchadzajuce generacie GPU podporu pre FG nemaju ci GTX grafiky zasa nepodporuju DLSS. Ale tahaju tym vyvoj dopredu. Bolo by bez DLSS nejake FSR? AMD sa k tomu nemalo az kym nemuseli reagovat na konkurenciu. Takze je to naozaj z principu zle? To mala NV urobit univerzalne riesenie pre vsetkych bez vyuzitia svojich vyhod, aby boli vsetci spokojni? A brw. nemysis nic skumat pod lupou. U FSR je casto viditelny shimering, aliasing ci problemy so zobrazenim pohybujucchi sa objektov. Mam u seba odskusane obe technologie vo viacerych hrach. Je to sice dostacujuce riesenie, ale DLSS je pokrocilejsie a lepsie.
Odpovědět3  5
Keby aspon AMD ponukalo nieco nove alebo lepsie ako konkurencia. Lenze ono je to prave naopak. A pri NV aj ked si idu na svojich uzavretych technologiach, tak k nim mavas normalne aj alternativy a to aj pri FSR ­(najde sa aj par vynimiek, ktore si ale zasluzia rovnaku kritiku­). Je to ine ako ked neumoznis implementaciu konkurencneho riesenia, ktore je este k tomu lepsie ako tvoje.
Odpovědět1  5
Co ma spolocne GPP so situaciou okolo FSR­/DLSS?

"AMD tenhle přístup není vlastní a tak napíše diplomatičtější vyjádření a tím se přímé odpovědi vyhne.­"

Prave tomuto sa hovori vyklad kovaneho fanusika. Je vtipne, ze u vacsiny NV hier je implementovane aj FSR, u AMD je to naopak, ale NV urcite podvadza. A AMD ani nahodou aj ked ich vyjadrenie je take z nudze cnost a schovavanie sa za opensource.

A to sa radsej anj nebudem obsirnejsie vyjadrovat k nezmyselnym stereotypom ako jen cucanie obrazkov z prstu. S tym, ze o tom, ako by islo DLSS3 na starsich kartach, ktore ore neho nemaju HW podporu, nic nevieme. Ale niektori uz jasno maju. Som zvedavy kde budem vysledkami a vykonovo FSR3 a ci bude aj pre starsie karty. Uz vidim otacanie nazorov o 180° ako je to vlastne v poriadku nieco uplne ine ako u DLSS3.
Odpovědět2  2
Som tak naladeny kvoli Starfieldu, na ktory sa dost tesim. Sice sa nic na mojom postoji k hre ako takej nemeni, ale s AMD mi zostava pachut z toho, ze grafika hry mohla byt lepsia, nez co nakoniec dostaneme. Ale aspon budu spokojni fandovia AMD, ze majitelia Geforce budu mat menej, nez mohli mat.

Proste o niecom takomto mozeme uz iba snivat:

https:­/­/www.dsogaming.com­/videotrailer­-news­/cyberpunk­-2077­-path­-tracing­-overdrive­-with­-100­-mods­-running­-on­-an­-nvidia­-rtx­-4090/
Odpovědět0  2
Na AMD sa uz obratili ini a pozri aku odpoved dostali. Inak ozyval som sa aj v minulosti vzdy. Nie len teraz. Inak hram nerad tieto hry na mensie a vacsie zlo. Nie je dobre ani ked je v hre iba FSR a ani ked tam je iba DLSS.
Odpovědět2  1
Poznas aj v tom 4K. Niekedy sa obraz s FSR tak nejak v pohybe trbliece. S DLSS je obraz stabilny. Co sa tyka RT, nejde iba o Cyberpunk. NV proste ma lepsi vykon pre RT a je to potom v hrach aj vidiet. Pri AMD sa RT pridava len aby sa nepovedalo a nie je ho vacsinou ani poriadne vidiet. To je ten marketing o ktorom sa tak casto hovori.
A tato situacia je ina ako tie predtym s NV. Ta ponukala riesenia, ktore boli vzdy v danom case najlepsie. Aspon co sa tyka renderovania tienov a osvetlenia scen ­(vid PCSS, HRTF ci HBAO+­). A ked aj nieco z toho neslo na grafikach AMD, tak tam boli vtedy pouzivane alternativy. Teraz AMD nema ani najlepsie riesenie pre upscaling, ani vykon na lepsi raytracing a ani alternativy k FG ci DLAA. Takze netazis z technologii AMD, len proste nebudes mat pristup k technologiam od NV ­(a kde este k tomu DLSS je lepsie ako FSR, ktore AMD tlaci­).
Chapem, ze AMD nepotrebuje do hier davat konkurencne riesenia, ale ked uz tam je FSR, mohlo by tam byt aj DLSS. Detto samozrejme plati aj opacne.
Odpovědět2  2
Inak nie je to len zoznam hier, ale aj alibisticke vyjadrenie AMD, ktore tomu len nahrava. Ci tebe prislo v poriadku, ze na otazku vobec neodpovedali a ze poslali len obycajny PR zvast, zatialco NV odpovedala priamo?
Odpovědět2  1
Tym, ze dodas vsetkym sice rovnake ale najhorsie mozne riesene ­(co FSR je oproti DLSS aj XeSS­), nie je rozhodnutie ist neutralnou cestou. To iste plati aj o hrach, kde je iba DLSS. Tato cesta by bola neutralna iba ak by mali hraci na vyber si zvolit to, co im vyhovuje najviac. AMD nie je ziadny vzor neutrality. :­-)
Odpovědět1  2
Tiez som mohol vidiet oboje a tych scenarov, kde nie je moc vidiet rozdiel medzi FSR oproti DLSS je teda dost malo. Urcite nie vela. V pohybe je obraz s DLSS menej rozmazly ­(u DLSS je problem rozoznat nativ od jeho vystupu, co sa o FSR neda vobec povedat­), u FSR je vidiet shimering obrazu, casto preblikavanie tenkych linii ako droty v plote a hlavne s DLSS je obraz stabilnejsi. Ked som naposledy skusal FSR v Calisto Protocol, bol to des, ktory nechcem zapinat.
Odpovědět0  1
Solidnejsi nez napriklad tie, na ktorych stalo tzv. prznenie PhysX. Teraz som hlavne nastvany kvoli Starfield. Snad ta hra pojde v dobrej grafike v 4K bez potreby upscalingu. Ale mohla obsahovat lepsi raytracing alebo DLAA. Bohuzial s AMD to nepojde.
BTW cele to kriplenie hier stalo iba na tom, ze tie hry obsahovali nejaku technologiu od NV. Na nicom inom to nestalo.
Odpovědět2  2
V prvom rade je DLSS aktualne najlepsi upscaling. A nie len to, ale jeho sucastou su aj FB ci DLAA. K nicomu z toho bema AMD alternativu, iba k zakladnemu DLSS a aj v tomsa iba dotahuje ­(ale ani nevyrovnava­). Vzhladom na to, ze dost ludi ma moznost DLSS pouzivat, je kontraproduktivne ho akymkolvek sposobom blokovat alebo obmedzovat. Hlavne ked uz mas FSR a implementacia DLSS­/XeSS je potom jednoducha. Preto by mali hry mat podporu FSR aj DLSS a kludne aj XeSS, aby si kazdy mohol vybrat co mu viac vyhovuje.
Odpovědět1  1
Vacsina tych vykonstruovangch kauz bola zalozena iba na tom, ze PhysX, Gameworks a pod boli sucastou danych hier. Ziadny dokaz o przneni vykonu AMD GPU nebol. Dokonca ani ta nafukovana kauza okolo CPU PhysX, ze ho NV sprznila nestala na ziadnom dokaze. Iba na tom, ze Kantor vtedy tvrdil, ze PhysX vyuzival stare instrukcne sady a nebol nativne multithreadovy. Lenze kde bolo porovnanie s kodom od Ageia, ktory NV povodne kupila? Kde boli dokazy ze ho NV zamerne upravila, aby bol horsi? Nedava to ani zmysel aby take nieco robili. Ale stale ziju niektori ludia v predstave, ze NV sprznila PhysX aj ked skutocnost je uplne ina. A takto by sa dalo pokracovat.
To, co sa teraz deje okolo AMD a DLSS je zalozene na ovela solidnejsich argumentoch, nez ake sa pouzivaju casto proti NV.
Odpovědět2  1
S hrami pod NV nemas FSR iba v 13tich z celkoveho poctu, ked vychadzam z tabuliek v clanku. U hier pod AMD je tento pomer opacny a mas DLSS iba v 5 hrach z celkoveho poctu. To sa neda zrovnavat. Preto sa tomu vsetci venuju a hlavne AMD sa k tomu odmietlo priamo vyjadrit. Ten marketingovy blabol skryvajuci sa za open source je tiez dost velavravny. Toto je teda ovela silnejsie podozrenie ako drviva vacsina doslova fanatikmi vykonstruovanych kauz u NV.
Odpovědět2  1
Pretoze fandovia AMD sa vobec neodkazuju na ine weby ci youtube kanaly. Hlavne HWU je u nich najcastejsi, ale teraz je nejak na opacnej strane, tak je fuj. Cela tato ­"kauza­" je este k tomu podciarknuta vyhybavym a nic nehovoriacim vyjadrenim AMD.
Ked uz sa bavime o dokazoch, kde boli dokazy AMD fanatikov k tomu ako nepovinne ficury z Gameworks alebo PhysX podkopavaju AMD? Nikdy ziadne neboli. Ked hra pouzivala Gameworks, automaticky boli fanatikmi priposovane vsetky chyby v hre prave tejto kniznici, aj ked sa jej vobec netykali. Detto CPU PhysX ako zevraj poskodzoval vykon GPU od AMD aj ked s GPU nemal nic spolocne. Kazda hra vyuzivajuca nieco od NV bola ­"kauza­". Nejake dokazovanie nikoho nezaujimalo.
V tomto pripade drviva vacsina hier pod AMd nema DLSS, zatialco u konkurencie je to s FSR naopak. To, ze sa teraz tlaci na AMD, aby to tak nebolo, je predsa v poriadku. Hlavne ked uz mas jedno z FSR­/DLSS­/XeSS implementovane, zvysne dve by mali byt iba rutina. Mna to teraz hneva hlavne kvoli Starfieldu, ktory som chcel hrat v co najlepsej grafike cez GeforceNOW. Teraz hra nielenze nebude mat poriadny raytracing, ale ani DLSS pre pripad, ze bude v 4K narocna. FSR je len nahrazka, ktora sa DLSS nevyrovna. A to ani nehovorim o chybajucich FG ci DLAA.
Odpovědět2  2
Pekne na HWU vysvetlili preco je tento typ argumentacie nezmyselny. Pozri si to video. Rozpisovat sa mi to fakt uz nechce. Pretoze vobec nejde o to, ze FSR je opensource a DLSS nie. To s tym nema absolutne nic spolocne.
Odpovědět2  1
Nikto tu open source nepohrda. Len sa okrem kvantity zameriavame aj na kvalitu. Ako by NV vydala AI upscaler ako open sourcem ako by to podla vas fungovalo na konkurencnych GPU a ich vlastnych starsich GPU, ked na rozdiel od konkurencie ­(a aj rady vlastnych kariet­) ma na akceleraciu ML samostatne jednotky navrhnute na HW podporu akceleracie tohto typu algoritmov? Myslite si, ze AMD by do toho vstupilo a upravilo by kod aj pre seba? Myslite si, ze aj niekto iny okrem AMD upravuje kod FSR, aby bezal co najlepsievaj na jeho HW? O tom silne pochybujem.
Odpovědět1  2
Nebojim sa o to, ze Honza Stach vyda pravy fanbojovsky clanok o tom, preco je to v poriadku. Ved uz teraz k uvedeniu spoluprace AMD na Starfielde napisal, ze aka je to super sprava, ze tato hra bude mat FSR a nie DLSS, lebo ze DLSS je len marketing ­(jeho pravidelny argument­) a FSR je zevraj plne zrovnatelne s DLSS ­(na niektorych prispevkoch v tejto diskusii je vidno, ze ma tento jeho smiesny vytlak vplyv­).
Odpovědět0  2
"NIC NEBLOKUJÍ, KDYŽ TY HRY EXISTUJÍ!!!!­"


Takze AMD staci, aby v jednej hre DLSS povolili a je to ok, lebo aspon nieco existuje? Vymenoval si 3 hry z kolkych? Piatich? Fakt si pozri tie tabulky v clanku. Skor by som povedal, ze su aj studia, ktore sa nedaju dotlacit k nepouzitiu DLSS.

Okrem toho autor clanku nie je jediny, kto sa tym zaobera a mysli si, ze AMD blokuje konkurencne technologie. A ruku v ruke s alibistickou odpovedou od AMD, ktore realne na polozenu otazku neodpovedalo, si teda co mame mysliet?
Odpovědět0  2
AMD uspelo v konzolach preto, lebo dokazalo dodat najlepsie SoC za najnizsou cenu. Vzhladom na to, ze Intel ani NV nemaju ako vykonne CPU aj vykonne GPU a skusenosti z APU, malo AMD vyhodu. A islo do toho za cenu, ktoru uz Intel a NV nechceli akceptovat. Tym rozpravkam o vyhliadke dlhodobeho a doveryhodneho partnera naozaj verite? Myslite si, ze MS, Sony alebo AMD nejde o generovanie zisku? Co by dnes bolo s AMD, ak by nemali konzolovy trh. BTW. NV ma zasa Nintendo. Asi nebude taky zly partner, ked to s nimi Nintendo uspesne taha tak dlho.
Odpovědět2  1
Je vtipne, ze z kazdeho kroku NV sa vyraba kauza a ked ide o AMD je to odrazu len domnienka. :­-­) Vzhladom na to, ze DLSS je kvalitnejsie riesenie a implementacia je jednoducha ­(uz ked max naimplementovane FSR­), nie je ziadny dovod, aby DLSS implemenrovany nebol. To, ze FSR bezi na vsetkom je len z nudze cnost vyhovorka, ze preco tam netreba DLSS.
A to ani nehovorim o vyhybavom vyjadreni AMD k celej tejto teme. Myslim, ze to hovori za vsetko.
Odpovědět3  1
Podla mna ten tlak by mal byt opacny. Mal by to byt tlak na AMD, aby pripravilo riesenie zrovnatelne s konkurenciou. A nie tak, ze len zakazu pouzivat konkurencne riesenie, pretoze je lepsie.
Odpovědět2  3
Lenze ono je to naopak v tomto pripade. Trieska v oku je NV a tram je AMD. To ocividne nechapes ty. Mas par hier, kde je iba DLSS ­(a v tomto suhlasim, ze by tam malo byt aj FSR ci XeSS­) a potom skoro vsetky hry pod AMD, kde DLSS nebolo a ani nepride. A je mi uplne jedno, ze FSR je open source a ide aj na AMD, Intel grafikach ci starsich NV grafikach. Lebo DLSS je kvalitnejsie. A to ani nehovorim o tom, ze zakaznikov s kartami s podporou DLSS nie je zrovna malo. Mali by tam byt proste tie technologie vsetky, abybsi si vybral co chces a k comu mas pristup. Preto ma dost sklamalo, ze prave Starfield dostalo AMD. Tesil som sa na grafiku s pokrocikym raytracingom ci DLSS. Kedze AMD v tomto zaostava, tak tlaci iba to, v com nebude pozadu.
Odpovědět2  4
Aku tramu v oku presne myslis? Ved skoro vsetky hry pod NV maju podporu aj pre FSR. Vratane napriklad aj Cyberpunku. Nasvedcuje to aj tomu, co NV na tuto temu povedala. Zatialco u AMD su kolko? 3 hry kde bola podpora aj pre DLSS? A ich vyjadrenie k otazke je obycajne vyhybanie sa odpovedi. Vsetky zahranicne weby co som pozeral to beru rovnako. Preto aj cela tato tema dnes rezonuje po internete.
Odpovědět2  3
Ja moc neverim, ze keby namiesto usila venocanemu upscalingu, dali peniaze na vyvoj GPU, ze by sme mali rychlehsie GPU ako dnes. Detto zeby boli hry lepsie optimalizovane. Skor by to bolo vsetko rovnake akurat bez moznostj kvalitnejsieho upscalingu.
Odpovědět3  2
Takze podla teba je ­(iba priklad, presne som to neratal­) 18 hier z 20 hier pod NV, kde je aj FSR to iste ako ked su 3 hry z 20 pod AMD s DLSS. Ziadny trend ani rozdielny pristupu tam nevidis?
Odpovědět3  4
Co keby si AMD namiesto podla Vas ­"prace za NV­" robila pracu poriadne a prisla s lepsim, a nielen dostacujucim riesenim, ktore by DLSS aspon dorovnalo? Potom by mi bolo jedno, ze sa DLSS nepouziva.
Odpovědět2  6
Ja tu snad obhajujem obmedzovanie konkurencie?
Odpovědět3  3
Praveze nie je na tim istom. S DLSS he vystup kvalitnejsi. A v cim nizsom rozliseni sa hra, tym je to viac vidiet. Co sa tyka kvality, sa medzi FSR a DLSS neda dat rovna sa. DLSS nie je ziadna nalepka ­(to by si kludne mohol za nalepku oznacit aj FSR­). Je to fungujuca technologia s aktualne najkvalitnejsim vystupom. Ludom uz asi z DDW drbe ked si myslia, ze FSR je lepsi len preto, ze je to open source.
Odpovědět3  7
Stale nechapes? Co ti nie je jasne v tabulkach z clanku? Nikto tu neobhajuhe princip pouzivania iba DLSS. Praveze by mali byt pouzite ako FSR tak DLSS. Uz len z tohu dovodu ze nie su vysledkovo porovnatelne a DLSS je lepsie. Tiez som si vyskusal obe, ak by si chcel namietat, ze to tak nie je. Argument, ze FSR ide na viac GPU aj kvoli tomuto neobstoji. Nie je to jedine kriterium.
Odpovědět4  5
Na sud to urcite nie je. Neprehanal by som. :­-­) Akurat to nastve ludi, ktori mozu vyuzivat lepsie riesenie ako FSR, ale AMD im to neumozni.
Odpovědět3  6
Problem je v tom, ze AMD sa nevyjadrilo, ze nikde nic neblokuje. Praveze sa priamej odpovedi vyhli. A ked si pozries tabulky v clanku, tak z toho vyplyva, ze preco.
Odpovědět8  7
Chod niekam s pocitom vynimocnosti. DLSS je aktualne najlepsi upscaling. Preto ak ho AMD zakaze, tak je to obmedzovanie ludi, ktori maju moznost DLSS vyuzit, ale nemozu. Inak si este raz precitaj co je v clanku. Nejde o prvdy den vydamia, ale ze sa DLSS v drvivej cacsine pripadov nikdy neobjavi v hrach pod AMD. A tak usto tu nikto neziada, aby v hrach bolo iba DLSS. Mala by byt podpora oboch a kludne aj XeSS, bech si kazdy vyberie co sa mu zda najlepsie.
Inak to vyhlasenie NV viac sedi k tomu co vidime, ako vyjadrenie od AMD, ktore je iba aby sa nepovedalo. Takze je podla mna jasne, kto tu teraz klame.
Odpovědět3  7
Pozri si tabulky v clanku este raz. U drvivej vacsiny hier pod NV je implementovana podpora aj pre FSR. Naopak je to ale v opacnom pomere. Tu ide hlavne o to, ze by hry mali mat podporu FSR, DLSS a kludne aj XeSS. Nech si kazdy vyberie co je pre neho najlepsie. A vzhladom na to, ze DLSS je z tychto troch najlepsi ­(jeho vystup je najkvalitnejsi­), tak ak si AMD buchne po stole, ze tam DLSS nebude, je to obmedzovanie. Pokial by bolo FSR kvalitnejsie alebo aspon zrovnatelne, tak mi je to jedno. Ale ked mam GPU s podporou DLSS, preco by som sa kvoli AMD mal obmedzovat iba na FSR?
BTW. to, ze nieco ide na vacsej mnozine kariet este neznamena, ze je to najlepsie.
Odpovědět6  10
Velka skoda, ze AMD sa dostalo k Starfieldu. Takze ziadny DLSS ani pojrocily raytracing. FSR sice uz je od verzie 2.0 pouzitelne, ale kvalutpu vystupu na aktualne DLSS proste nema.
Odpovědět4  9
https:­/­/www.sector.sk­/novinka­/290373­/vyvojar­-priblizuje­-dlss­-a­-fsr­-kompatiblitu.htm

To je len pre tvoju info ako je to so zlozitostou implementacioe FSR, DLSS aj XeSS.

A btw. to, ze je nieco pre vsetkych, este neznamena ze ostatne sa ma ignorovat. Urcite nie v pripade, ak konkurencne riesenie ponuka kvalitnejsi vystup. A v tom by som videl motiv preco by AMD potlacalo pouzivanie upscalingov vyuzivajucich AI.

Vtipne je tiez to, kolko ludi zahlasovalo v ankete za moznost, ze kedze ide o AMD podporovanu hru, tak bech vyuziva iba jej technologie. Stavim sa, ze na drugej strane su to zarputili bojovnoci proti PhysX, Gameworks a vlastne vsetkemu, co vzide od NV. Chcelo by to trosku sebareflexie.
Odpovědět4  9
To je pekne arogantny pohlad. Co je take zle na tom si zahrat hru vo VR alebo pozret film na velkej obrazovke? Je to take strasne oproti chodeniu na kavicky alebo na vylety do obchodakov? Co si pod VR vlastne predstavujes?
Odpovědět1  0
AMD tiez nie je bez kopromisov. Ale ano, kazdy si moze vybrat podla toho, co je pre neho dolezitejsie.
Odpovědět0  0
To, ze AMD tu kartu netestovalo lebo chcelo utajit informacie okolo nej, je uplny nezmysel. Samozrejme, ze ju testovali a ladili k nej ovladace uplne rovnako ako konkurencia. To, ze nestihli vsetko doriesit je uz druha vec. A ze NV iba zmenila vyrobny proces a navysila SP a nebolo teda tolko ladenia, kde na tieto hovadiny chodis? To fakt niekde citas alebo si tieto informacie vymyslas za pochodu?
Odpovědět1  1
Ved to zodpoveda zhruba aj statistikam od JPR, podla ktorych uz NV ovlada dokonca 88% vsetkych dodanych dGPU.
Odpovědět0  0
Fakt chcu mat u RTX 4070 Mobile stale iba 8GB VRAM? Uz teraz u RTX 3070 Ti Mobile je to malo. Ako v pohode na FHD a 2k, ale ta karta by viacero hier zvladala aj v 4K ak by mala viac VRAM.
Odpovědět0  0
To iste mozes napisat o kazdej grafickej ficure, ze ju vlastne nepotrebujes. Ale neviem ci by si dnes chcel hrat hry ako z 8 bitovych pocitacov, kde neboli nielen odlesky, ale aj tiene, teselovane objekty, AA, AO a kadeco ineho co je dnes brane ako normalne. RT ale nie je graficka ficura. Je to nastroj, co spolu s dalsimi nahradi vo velkej miere alebo kompletne casom rasterizaciu, ktora sa dnes pouziva na real­-time pocitacovu grafiku. To, ze uz je postupne mozne pouzivat RT v real­-time pocitacivej grafike je paradny krok vpred a pokrok, ktory ale ocividne nedokazu este niektori ludia ani trochu ocenit. A fakt neviem ci to je len z nepochopenia alebo hlavne z toho, ze ho pre hracov zviditelnila na PC a tlaci ho tam hlavne NVIDIA.
Odpovědět0  0
DLSS je nezavisle od RT. Na jeho akceleraciu vyuziva NVIDIA tensor cores a nie RT cores. Tensor cores sa pouzivaju na akceleraciu ML algoritmov. Ale paradoxne potrebujes na to RTX GPU, lebo iba tie maju tensor jadra.
Odpovědět0  0
Napisal si ­"RT výkon je důležitej pro DLSS­". To naozaj neznamena, ze ­"potrebujes RTX GPU, aby si mohol pouzivat DLSS­".
Odpovědět0  0
Na to som aj ja zvedavy az si niekedy DLSS3 vyskusam. Ci ta lepsia plynulost obrazu za to stoji a ci nebude lepsie mat sice menej FPS, ale nizsiu latenciu s Reflexom alebo DLSS2.
Odpovědět0  0
JJ. Kedysi som kupoval za 10000SK 8800GT. Paradna grafika za tu cenu. Dneska by to uz bolo tak 800 az 1000E. :­-)
Odpovědět0  0
RT tu nie je kvoli DLSS­/FSR, ale naopak. Okrem toho DLSS­/FSR sa pouzivaju aj v hrach, kde RT nie je. Ako napriklad Death Stranding.
Odpovědět0  0
Zaujima vela ludi. To, ze nezaujima teba meznamena, ze to tak plati aj u inych.
Odpovědět0  0
Alebo sa na to mozes pozerat aj tak, ze input lag ti zostane rovnaky, ale plynulost obrazu sa zlepsi. No a pokial by si mal s DLSS3 60 FPS a bez neho 30FPS ale vzdy s rovnakym input lagom, nie je lepsie dostavat tych 60 FPS? Tu uz potom hraju dolezitu rolu pri rozhodovani artefakty. A to uz bude zalezat od implementacie DLSS3 v konkretnych hrach. Tam, kde by boli artefakty jasne viditelne ako ukazal HWU napriklad u formuly 1 a blikajucimi menami hracov, tak by som bud zobrazovanie mien hracov vypol alebo nepouzival DLSS. Ak by boli artefaty viditelne za kazdych okolnosti, tak by som tiez DLSS3 nepouzil. No a pri hrach, kde nebudu artefakty viditelne, nevidim dovod preco nie. Ak inpug lag zostane pri najhorsom rovnaky ako predtym. Nezatracoval by som DLSS3 este predtym nez sa poriadne ukaze. Plus sa casom bude zlepsovat.
Odpovědět0  0
Ji jasne. AMD mysli hlavne vsetkych okolo a nie na seba. :­-­) Vazne to DDmu vsetko zerete? Uz chapem preco si vysluzil pozvanku na prezentaciu.
Odpovědět0  2
Podla testov aj na HWU je input lag na urovni nativu bez DLSS. To akoze bez DLSS3 maju ofrazu hry brutalny input lag a su nehratelne? Tom co sa hlavne zlepsilo, je plynulost obrazu a su a aj bydu hry, ktore budu mat aj s DLSS3 lepsi input lag nez v native bez DLSS. No a tie artefakty, tak vacsina je vidiet akurat pri niekolkonasobmom zvacseni alebo spomaleni obrazu. Tak asi hry nehravas, ze? Zvysok sa bude postupne doladovat. Ale ved uz vieme na co ludia ako ty cakaju. Kym AMD nebude mat nieco podobne, co bude odrazu super a budete sa tvarit, ze je to nieco kvalitativne rovnake ako pri FSR vs DLSS.
Odpovědět0  3
"Udělali kartu pro lidi, ne pro magory...­"

To chces vazne preberat Stachove hlupe reci?
Odpovědět2  5
Ked som hladal Freesync monitor, bolo to v SK eshopoch a nikde poriadne nebolo napisane na akych frekvenciach funguje. Bolo ich treba dohladavat na strankach vyrobcov. A nenatrafil som ani na jeden ktory by podporoval adaptivnu synchronizaciu od 30Hz. Ale ano je to moja chyba, ze som to nevedel. Nebudem sa na to vyhovarat. Co sa tyka spotreby monitorov, nikdy som ju neriesil. Podla toho, co pises, nikdy by som si monitor s aktivnym chladenim nekupil a ani nikomu neodporucil. Sam som taky tiez nemal. Takze to kludne v buducich diskusiach napisem.

Ku Mantle. Preco myslis, ze by nove API nevznikli aj bez neho? Sam pises, ze nove ficury ako DXR by na starych API nemohli byt aplikovane a ja si myslim to iste. Preto si myslim, ze by prisli tak ci tak. Ale zasluhou snahy od AMD sa ich prichod urychlil. Co je fakt. A nebudem uz riesit preco to AMD urobilo.

No a posledna vec. Je mi uplne jedno, ze to, co NV alebo niekto iny urobi, je proprietarne. Riesim iba to ako to funguje a co mi to prida. Rad sledujem vyvoj pocitacovej grafiky a v tomto smere je podpora NV dlhodobo popredu. Ci uz to bol PhysX, Gameworks, Raytracing alebo DLSS. Nebudem nieco cielene hate­-tovat len preto ze je to proprietarne. Ako to robia notoricky fandovia AMD. Nerobil som to ani u Mantle ked este bezalo iba na AMD grafikach a nevedelo sa, ze z toho bude nove graficke API pre vsetkych. Takze nie. Nemlaskam si nad tym ze je nieco vendor lock a ani ze je vendor lock skvely. Vzdy riesim iba samotne ficury a ich kvalitu. Tak mi nepodsuvaj nieco, co nerobim. A btw. ja tu na rozdiel od vela ludi viem aky je rozdiel medzi DXR a RTX tak si to prekladaj pre nich. Su tu aj taky, co si myslia, ze RTX je proprietarne API od NV, ktore je uz teraz kvoli DXR mrtve. Proste klasika.
Odpovědět0  0
To, ze vlastnis GPU oboch vyrobcov este neznamena ze si nestranny alebo objektivny. Minimalne za cias Freesync 1 byvala normalna vec, ze si mal take monitory. Co by si aj cakal za mensiu cenu. Ze budes mat to iste ako ked mas na to samostatny modul? S Freesync 2 je to uz lepsie. Ak mas monitor s Freesync Premium alebo Freesync Premium Pro je spodna hranica 40 alebo 48Hz. Priznam sa, ze som nenatrafil doteraz na monitor s FS od 30Hz. Aj ked vidim a ako som cakal, ze cenovo uz su tieto monitori vyssie. GSync zasa idu vsetky od 30Hz. Ale tu uz beriem argument, ze je lepsie kupit takyto monitor a moct si vybrat akukolvek GPU ako ist do GSync a upnut sa na NV. Odteraz uz nebudem tvrdit, ze take nie su. Ked som v lete kupoval monitor, mal som lepsie pozerat. Mne osobne to zasa nevadi pretoze kupujem NV kvoli ich podpore roznych zaujimavych ficur, ktore zapracovavaju do hier. A mimochodom, ked uz takto argumentujes, ja mam 2 Freesync monitori a jeden GSync. To len keby mali hateri nejaky problem. :­-­)

A este raz vobec neslo o uvolnenie Mantle, ale o to udajne zavadzanie zakaznikov. To, ze si NV vyrobi nieco iba pre jej GPU, nic take nie je. Je to ich pridana hodnota, ktoru zakaznici mozu aj nemusia akceptovat. A tiez je tu jedna aj ked postranna vec. AMD nerobila Mantle pre nase dobro. Potrebovali hasit problemy ich CPU s nizkym IPC, ktorym vtedajsie nabobtnale API moc nepomahalo. S dnesnymi Ryzenami by taky problem nemali a ak by mali taky CPU sj vtedy, mozno by ziadne Mantle ani nevzniklo. NakonIec je dobre tak ako to bolo.
Odpovědět0  0
Moze byt. Ale naposledy to bol Huang, ktory nou vysvetloval raytracing. Niektori fandovia AMD ju casto posmesne pouzivaju, aj ked v inom kontexte nez bola niekolkokrat vysvetlena. Ale to ocivudne nikoho netrapi. Moja pripomienka tej vety bola iba sarkasticka. :­-)
Odpovědět0  0
Unreal spominal rozumne pouzivanie s ohladom na vykon. Preto som o tom pisal. A inak fakt u kazdeho vizualneho efektu alebo technologii pocitate kolko percent obrazu ovplyvnuje? Pretoze doteraz ­(rozumej pred raytracingom­) som sa s takouto argumentaciou este nestretol. :­-­) A mate nejake presne cislo? Je to 20, 30, 50 %? RT hlavne prinasa moznosti, ktore sa s rasterizaciou daju dosiahnut ovela zlozitejsie ale s RT je to podla slavnej Huangovej vete ­"It just works­". Pride mi to tak, ze niektori ludia doslova bojuju proti pokroku. :­-­) Casom snad pride aj to spominane vozidlo a budu sa navysovat detaily s poctom sledovanych lucov na pixel. Snad nikto necaka, ze hned na prvu supu tu budu graficke karty schopne v realnom case renderovat kompletne hry cez pathtracing bez pouzitia rasterizacie.
Odpovědět0  0
Do tej roviny si to ale postavil ty. Vytvorenie technologie, ktora funguje iba na kartach jej tvorcu, nie je zavadzanie zakaznika. Ked prislo AMD s Mantle, to tiez fungovalo iba na ich grafikach. Az kym sa na tom nepostavil Vulkan a nepotlacilo to vyvoj aj DirectX 12. Tak isto by si tvrdil, ze AMD v casoch Mantle zavadzalo zakaznikov?

GSYNC vs Freesync sa neda posudzovat takto vseobecne. Vzdy to zavisi od konkretnych monitorov. Poviem priklad z mojich skusenosti. Aktualne mam 2K monitor s Freesync Premium, kde by FS malo fungovat od 48 do 144Hz. Co je fajn kedze mam laptop s RTX 3070 Ti, ktora v pohode doda tych 48 a viac FPS. Aj ked nie vzdy. V takych pripadoch by sa potom hodil monitor s GSync, ktory podporuje adaptivnu synchronizaciu od 30Hz vyssie. Ak by pre niekoho bolo dolezite aj to, tak sa priplatok za GSync oplati. Detto ak si mas vybrat napriklad 120Hz monitor, kde Freesync funguje iba v nejakom intervale typu od 48 do 90 alebo od 60 do 90Hz, tak nie je lepsie si priplatit radsej za ten isty monitor s Gsync, ktory bude fungovat od 30 do 120Hz a kde nemusis riesit nastavenia tak, aby si sa vo vacsine trafil do nejakeho intervalu? Tu mozes argumentovat, ze sa tym ale upisujes iba na grafiky od NV, ale nie je to chyba NV, ze Freesync neponuka to iste. Chapem to tak, ze v takom pripade by uz bola elektronika monitora drahsia a nebola by cenou daleko od GSync modulu. A kym tu tieto rozdiely budu, stale bude mat GSync zmysel.

Co sa tyka RT, vies ze ho dokaze spracovat aj procesor? Vobec nejde o to co ho dokaze spracovat, ale dolezite je ako rychlo. V tomto ma NVIDIA navrch. A ci je to rozumne rychlo? Opat poviem priklad z vlastnych skusenosti. Laptopova 3070 Ti 150W­(125 + 25 dynamickych­), ktoru teraz pouzivam, ma vykon nieco pod desktopovou 3060 Ti. Z toho, co u teba citam by si u nej povedal, ze nepoda dostatocny vykon v RT. Ale nie Je to pravda. Jasne, ze ti neumozni hrat s RT na full v 4K, ale na FHD a 2K, ktore ma drviva vacsina hracov, je uplne bezproblemova. Na 2K vacsinou ani nemusim zapinat DLSS. A pri tych co ano, tak staci Quality, kde si pri hrani tazko vsimnes rozdiel. Vo FHD sa s DLSS ani nemusis obtazovat. O vykonnejsich kartach sa potom ani nema cenu o vykone bavit. U AMD grafik je to ale horsie a na 2K ti urcite nestaci ich mainstream grafika. NV ma aj v tomto realnu vyhodu.
Odpovědět0  0
Vacsinou sa vsetko da urobit roznymi sposbmi. Na upscaling existuje X metod. Ale aktualne na trhu neexistuje lepsi upscaling nez ten ako ho dokaze urobit machine learning teda to AI. A to bez ohladu na DLSS. Mozes sa snazit ako chces, ale kvalitativne je FSR pochopitelne horsie. Jedine co ma FSR spolocne s DLSS je, ze umoznuje rendering v nizsom rozliseni a upscaluje obraz do vyssieho. To je tak vsetko. K DLSS sa iba priblizuje. To ma totiz stabilnejsi obraz s menej artefaktmi. Takze FSR ako nahradu sice mozes brat, ak ti nevadi nizsia kvalita. Potom sa mozes tvarit, ze DLSS neexistuje a nahovarat si ako si sa nenechal NVIDIou nachytat. Ono je to ale uplne inak. A nezmysel o zavadzani zakaznika ani nebudem komentovat. NV nikde netvrdi, ze ich sposob je jedina moznost ako to robit.
Odpovědět1  1
Ani ked to povies milionkrat, nebude to pravda. Pocitacova hra nie je to iste ako film. Ked stale nevies aky je medzi tym rozdiel a aky je rozdiel medzi setopoboxom a grafickou kartou, tak je to usmevne po tolkych rokoch. Ale je to tvoj boj. :­-)
Odpovědět0  0
Kazdy mame svoj nazor. Ja uz tu akurat vela ludi poznam a viem u ktorych nebude nikdy dobre nic co urobi NVIDIA. A pokial niekoho DLSS nezaujima, tak si myslim, ze nema ani zmysel na tuto technologiu nadavat. Pre vela inych ludi bude naopak uzitocna.
Odpovědět1  1
Aby mali AMD fandovia na co nadavat? :­-­) Ved uvidime ked budu testy z viacerych zdrojov. Kazdy si hakfe urcite svoje. Ale Digital Foundry verim. Ich rozbory maju hlavu a patu a zameriavaju sa na detaily.
Odpovědět0  1
Mne DLSS nevadi. Okrem toho nevieme aky vykon budu mat nove AMD GPU. Potom budeme vediet co je malo a co nie. DLSS je hlavne vyhoda pre NV, ale nie nutna. Nikto ta ju nenuti pouzivat. A ze ti DLSS vygeneruje pk novom aj cely snimok? A v com je problem ak to pomoze a ak ti pri to neumerne nezvysi latenciu, co podla testov od Digital Foundry by nemalo nastavat? Ved aj aktualne DLSS a FSR ti pocitaju ­"fake­" pixely a nie je okolo toho take halo. Bavime sa o celkom zaujimavych technologiach a niektori ich iba zhadzujete na marketing ako keby ich vyrabalo a navrhovalo marketingove oddelenie.
Odpovědět0  1
Akoze Digital Foundry robia PR pre NV?
Odpovědět0  0
Uz sa pise iba o 70% navyseni vykonu bez DLSS. A zle jazyky pisu iba o 50%, comu neverim. :­-)
Odpovědět0  0
Hej. Sa tu niektori tvaria ako keby museli DLSS pouzivat a ako keby to bolo najvacsie zlo vo vesmire. Som zvedavy, kolki z nich vobec maju GPU s jeho podporou. A pritom im akudat vadi, ze NV GPU novej rady budu mat moznost niekolkonasobneho navysenia FPS. Takze skutocny kolotoc kritiky este len pride. O to sa nebojim. Az kym AMD nebude mat nieco konkurencieschopne. No a to potom bude najlepsia vec vo vesmire a DLSS bude zasa ­"mrtve­". Je to dokolecka stale to iste.
Odpovědět1  1