Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
3.12.2024, Milan Šurkala, aktualita
Další únik ohledně připravované grafické karty AMD Radeon RX 8800 XT s architekturou RDNA 4 mluví o tom, že tato karta vyššího mainstreamu překoná v ray-tracingu RX 7900 XTX o 45 %. Navíc bude i úspornější.
O jéééééé
Další AMDD karta nám zahořela, údajně se jedná o 6600XT, na kterou borec hrál FarCry3.... když to najednou:
https:­/­/ctrlv.cz­/VeIy
a
konektor udělala pápá: https:­/­/ctrlv.cz­/opOG
Odpovědět0  0
prasopras (340) | 22.12.202411:40
Vazeny pane GURU,

dekujeme za prispevek, posilejte dal!
Odpovědět0  0
Jardadoma (1698) | 3.12.202410:32
I kdyby nic jiného, tak je fajn, že je konkurence a že se všichni nevrhli jen na AI chipy.
Odpovědět9  1
congi (370) | 3.12.202410:04
super no, jeste je ta blbost nepresla...dal se budou venovat nesmyslnemu RT ve hrach, ktere kdyz nejsou zamerne pokazene, tak vizualni prinos RT neni vubec poznat, ale poznat to jde drasticky na vykonu, kde se i TOPEND karty zmuzou tak akorat na slideshow a to v archivnim 1080p...takze to vidim, ze budu cekat na 8800XT, ktera neposune rasterizacni vykon kvuli RT a pak si nadavat, ze jsem radeji nevzal 7900XTX
Odpovědět6  8
mittar (175) | 3.12.202413:30
Takže jsem vlastně s 7900XTX za 28k chybu neudělal bo RT mě nezajímá ... uvidím jestli bude za upgrade stát první ale spíše asi až druhá UDNA resp ta generace kdy pak vyjdou nové herní konzole aby mě ty hry na ně jely prostě v lepších FPS na 4k bez upscalingu na nějaký čas a tam už pak asi s upscalingem bude mít smysl i ten RT ...
Odpovědět3  2
snajprik (1734) | 3.12.202413:31
Presne, to RT si nech strčia už do prdele a račej rasterizačny vykon navyšia, keby tak ta karta mala vykon o 45% vyšši ako 7900XTX to by nemala šancu ani RTX4090 proti nej a vykonom by siahala po RTX5090, ale RT? Komedianti.
Odpovědět2  8
Proč chcete trápit vývojáře her? S RT osvícením je nasvícení celé hry jednodušší.
Odpovědět4  5
Akulacz (364) | 3.12.202422:02
A budou hry levnější?
Odpovědět4  1
proč vás zajímá cena a né kvalita?
Odpovědět1  2
Akulacz (364) | 6.12.202417:42
Záleží jaká kvalita, pokud to bude lépe vypadat, je to bonus, ale třeba pro mě ne až tak podstatný.
Teoreticky by se dalo říct, že když budou mít jednodušší práci na grafice, že by mohli zapracovat více na obsahu, hratelnosti a chybách, ale spíš bych čekal že budou chrlit nepodarky rychleji, výjimkám čest...
Odpovědět1  0
prasopras (340) | 6.12.202418:21
presne tak, jde o penize
Odpovědět0  0
Akulacz (364) | 7.12.20249:39
Tak pokud produkt přinese něco navíc tak spousta lidí si klidně připlatí, jen každý to navíc vnímá jinak.
Někdo vyžaduje kulervoucí grafiku, někomu stačí když je skvělá hratelnost, dobrý příběh... A pak nevadí ani prehistorická grafika...
Odpovědět1  0
ano existují studia, které jedou na kvantitu. Jenže pak tu máme i menší studia, nebo standalone studia, kterým jednodušší práce s enginem na vytvoření příběhu pomůže v tom se věnovat více příběhu než řešením světla.
Sám vím jaká příšernost byla v GoldSrc hledat byť jeden jedinej chybějící pixel, který způsoboval chybu ve výpočtu a mapa se nedala ­"dodělat­" k hraní.
Odpovědět1  1
cztajtrlik (67) | 3.12.202413:32
A co si pockat na testy, porovnat rasterizaci a pri stejnem vykonu pak capnout 7900XTX, ktera pujde zlevnena do vyprodeje dva mesice po naskladneni novinky? V nejhorsim pripade asi budete mit stejny vykon, ale treba novinka cenove prekvapi a bude levnejsi i nez vybehova highendka z predchozi generace ­- pak nebude co resit ;)
Odpovědět4  0
Tomcat2 (671) | 3.12.202414:20
Přesně tak, na to právě čekám. Tu pálku, za co se dneska 7900XTX prodává, bych nedal. Ani na bazaru se neobjevila níž, než za 20k...takže doufám, že jak vyjdou nové nVidia a Radeon grafiky, tak bych mohl 7900XTX na bazaru sehnat i za 15k časem...což je taková přiměřená cena...
Odpovědět4  1
congi (370) | 3.12.202416:35
aby se to tak vubec prekrylo, aby nezacla 7900 pres vanoce jen zdrazovat az do vyprodani...mesice ty karty sleduju na heurece a ta cena vzdy jen lehce spadne na chvili a pote je zase zpet, doba kdy HW pravidelne slevnoval do konce projdeje je davno pryc :­( ...btw co mi na te karte uplne nevoni je spotreba, vykonove spicky by se 12V vetvim meho 650W zdroje uplne nemuseli libit, na druhou stranu je jen o 30­-70W zravejsi nez aktualni 6800XT a furt mam rezervu....timto zdravim magory majici 850W zdroj pro zdechlou 4060 :D
Odpovědět4  0
Tomcat2 (671) | 3.12.202416:56
Mě 6800XT žere 220W max a to je trochu potočená, ale mám tam undervolt na 1050mV, to je celkem v pohodě :)
Odpovědět2  0
congi (370) | 4.12.202415:47
ja mam nastaveno 1035mV, ale zvlastni je, ze ve vetsine her to ukazuje max spotrebu 220­-230W, ale nektere hry nebo nektere sceny ve hrach z toho dokazi vydojit 280W jakoby to podvoltovane nebylo ­(podobne jako furmark­), aktualne hrajem Warhammer Martyr a nektere mapy jedou spotrebou na max a jine tech 230W max
Odpovědět0  0
Tomcat2 (671) | 4.12.202421:58
Zkusil jsem teď Furmark a žere to 255W. Snížení napětí na 1035mV nemá žádnej vliv, ono to asi bude tím, že při těch 255W se napětí motá kolem 900mW. I když ohulím větráky na max. a zvednu Power Limit +15%, tak spotřeba vyskočí na 293W, ale napětí vzroste asi jen na 950mV, cože je pořád pod nastaveným limitem. Frekvence je max. 2160MHz, při nastavené max. 2419MHz...teploty GPU 77°C, Hotspot 99°C...ani když posunu frekvence min. na 2500MHz, max. na 2600MHz, tak z toho nedostanu víc, jak kolem 2330MHz a napětí kolem 1040mV...Furmark to neshodil, ale nevím, jak by to bylo stabilní...
Odpovědět0  0
Tomcat2 (671) | 4.12.202422:03
Ale teď koukám, že když dám ve furmarku Knot test, tak to vytěžuje GPU víc, vyšší frekvence kolem 2300MHz i napětí i k 1030mV při 255W...
Odpovědět0  0
Akulacz (364) | 3.12.202422:17
"timto zdravim magory majici 850W zdroj pro zdechlou 4060 :D­" tak záleží co k tomu mají za CPU, na některé to bude tak­-tak...
Já mám na podobně žravou bestii ­(6600nonXT­) pětikilíčko, ono v nabídce nic moc slabšího, co by mělo rozumnou kvalitu skoro není ­(a běhalo to bez problémů se starým 300W fortronem­)
Ale mnohde v testech chudák najde že se testovalo s 1kw zdrojem, tak kupí aspoň 850, aby to ­"nebrzdilo­" tolik...
Já bych ocenil nějakou okudlanou verzi co by vystačila se 150­-175W, ale to jsem se asi zase zasnil...
Odpovědět2  0
mittar (175) | 4.12.202411:36
6800XT mi pravidelne vypínala počítač a to jsem měl Seasonic Prime TX­-750 titanium ... teď je u děcek kde jede, tolik k těm magorům ... stačí mít pořádný CPU, několik disků a používat USB­-C a 6800XT ti na 750W zdroji prostě komp položí .. ano jde podvoltovat a pak to nedělá, to je ale jiný příběh
Odpovědět0  0
congi (370) | 5.12.202415:49
ja zatim nemel se zdroji problem a to jsem mel vzdy plno disku, zrave grafiky a pretaktovane vse co jde :­) a vzdy to zvladly at uz to byly noname nebo postupne lepsi...ted mam nejakou evgu 650W, ryzen 5700x3d, 3x hdd, 3x ssd a ten s tim vubec nema problem....ale driv jsem v tomhle pc mel obycejny chieftec 550W, ktery tehda krmil ryzen 1600X@150W a Vegu56 ktera s power limitem na max ukazovala az 330W + ten zbytek HW a roky jel bez problemu....takze kolem zdroju je az moc hysterie, ja ale spis narazel na nedavny clanek na stoce jmenem***** a jejich doporucene sestavy, to bylo na sveraci kazajku :­) ...btw nemuzu sem vlozit tento prispevek to je problem slovo***** nic to ale nenapsalo za chybu ­- normalne komentar vlozen
Odpovědět0  0
congi (370) | 5.12.202415:50
hahaha tady fakt nejde vlozit spojeni ......PC..xxxxxx....TUNING.... lol
Odpovědět1  0
Tomcat2 (671) | 6.12.202414:28
Já mám stejnou zkušenost s Chieftec 650W zdrojem. Když jsem vyměnil GTX970 za RX5700XT, tak se mi při hrách začal náhodně natvrdo restartovat komp...koupil jsem potom novej Corsair 750W a problémy přestaly. Teď na něm provozuju 6800XT a drží v pohodě...
Odpovědět0  0
eMKejx (131) | 5.12.202411:47
ja tam mam vysavac namiesto zdroja, kedze chovam XTX...
Odpovědět0  0
prasopras (340) | 18.12.202420:28
Tyhle silne karty vydrzi nekolik let, nicmene dnes je arch. stara 2 roky, s 8. generaci do uvedeni UDNA 4 roky, a da se ocekavat, ze technologicky bude starnout.
Odpovědět0  0
pidalin (1545) | 3.12.202415:55
Bohužel výrobci HW za to nemůžou, jenom reagujou na prasohry a prasoenginy. Situace je taková že v Unreal Engine hrách je forced raytracing kterej nejde standardní cestou vypnout a tak to holt je, nic s tim nenaděláme, buď přestat hrát, nebo se tomu přizpůsobit a je dobře že na to výrobci HW reagujou, protože co jim zbejvá? Navíc je to pro ně blbá reklama když na grafice za 25 tisíc jede Stalker na 45 FPS bez upscalingu. Lidi nebudou nadávat na engine nebo vývojáře, ale na nvidii nebo AMD, oni to řešit musej.
Odpovědět5  0
naštěstí doba statických světel já dávno pryč.
Odpovědět2  4
Akulacz (364) | 3.12.202422:20
Asi tak jako všichni vyhodili FHD monitory a po vašem vzoru koupili rodičům 4k a pro sebe 8­-16k monitory, a pak se probudili ve východním Německu...
Odpovědět5  1
Tomcat2 (671) | 4.12.202410:56
Náhodou, 8K monitor by byl super ;)
Odpovědět2  1
Akulacz (364) | 4.12.202411:36
Mě se tak velký aby to dávalo úplně smysl stejně nevejde a hlavně bych nechtěl platit ani chladit kartu co by to utáhla...
Odpovědět0  1
Tomcat2 (671) | 5.12.202415:04
Proč? 27­"-28­" ideál a kdo říkal, že na tom musíš hrát v 8K ;­-­) Takovej monitor by byl naprosto ideální pro hráče, protože 8K ­(7680x4320­) je přesnej 2 násobek 4K ­(3840x2160­), přesně 3 násobek 1440p ­(2560x1440­) a přesnej 4 násobek 1080p ­(1920x1080­).

Čili na 8K monitoru když si zapneš Integer Scaling, můžeš hrát ve všech těchto rozlišeních v nativu bez interpolace a to by bylo super ;)
Odpovědět0  1
je to hlupák, když jsem klukům ukazoval jak u mě na 3440x1440 vypadá GTA5 tak úplně uchcávali a tahali se za lulínky že jsou taky xwuhd monitor. Já bych na rozpočtování zase bral oled displey, aby při rozpočtování v noci jsem neměl tak vypálený oči.

jinak nevím dával jsem semka svou galerku jak vypadá hraní na širokoúhlém monitoru?

[odkaz, pro zobrazení se přihlaste]
Odpovědět1  2
s lidmi co si koupí 27­" FHD monitor se nebavím.
Odpovědět0  2
Terepin (87) | 4.12.20247:10
Väčšina hier na UE5 využíva softvérový ray tracing.
Odpovědět1  1
prasopras (340) | 5.12.202412:03

Pozor s tema praso neco jako jo! Pido!
Odpovědět0  0
Elulen (113) | 3.12.202423:13
S 6800 XT jsem říkal něco podobného, pak jsem přešel na RTX4080S a jsou hry, kdy se RT nebo PT nemůžu nabažit. Výkon to samozřejmě sežere na polovinu, ale vypadá to božsky.

Na druhou stranu jsou hry­(např. Diablo 4­), kdy je RT opravdu k smíchu a kromě 50% sníženî FPS to nemá žádný jiný efekt.
Odpovědět5  1
Tomcat2 (671) | 4.12.202410:59
To je dobrý se podívat na tohle video na HW Unboxed, kde porovnávali v jakých hrách má RT smysl a v jakých ne...
https:­/­/www.youtube.com­/watch?v=DBNH0NyN8K8
Odpovědět1  0
nvidia má podporu AI, takže je to do budoucna plus. koupit si grafíku na nynější hry, je něco jako připravovat se na minulou válku. nevíte co bude zítra.
Odpovědět0  3
Terepin (87) | 4.12.20247:08
Evidentne si nevidel Metro Exodus Enhanced Edition. Ten rozdiel v nasvietení je markantný.
Odpovědět3  1
Tomcat2 (671) | 6.12.202414:33
To mě docela štve, že vždycky vylepší nějakou hru až poté, co to dávno dohraju...já hry znovu nehraju, není k tomu důvod, když už jsem to jednou dohrál...to tam měli udělat rovnou...
Odpovědět0  0
Luksh (12) | 3.12.20248:18
No vypadá to na upgrade mé staré RX580
Odpovědět6  0
RobinHraje (17) | 3.12.202413:04
Jo já přejdu z 5500XT, doteď mi na 1080p bohatě stačila, ale občas už musím používat LS framegen
Odpovědět4  0
prasopras (340) | 3.12.202418:56
Panove, neni jeste cas? 😉
Odpovědět1  0
zero8327 (123) | 3.12.20248:09
No vypadá to na reinkarnáciu Radeon­-u 4850­/4870 ­(RV770­) z roku 2008. Pamätníci vedia o čom hovorím...jednoducho skvelý výkon a super cenu.
Odpovědět7  0
zero8327 (123) | 3.12.202411:36
Tak som zaspomínal na minulé generácie a objavil som u ATi­/AMD GPU istý cyklus, kedy sa im podarí vyrobiť čip­/grafickú kartu, ktorá má perfektný výkon za super cenu ­(nemusí byť nutne najvýkonnejšia na trhu­). Tento cyklus sa opakuje v priemere raz za cca 7,5 roka ­(­-­/+ 1 rok­):

Radeon 9700 Pro ­(čip R300, DirectX 9, 09­/2002­)
Radeon 4850­/4870 ­(čip RV770, DirectX 10.1 , 06­/2008­)
Radeon RX 480­/580 ­(čip Ellesmere XT, DirectX 12.0, 06­/2016­)
Radeon RX 8800XT? ­(čip NAVI 48, DirectX 12.2, 01­/2025­) ­- to uvidíme


Ono to má zrejme čo do činenia s faktorom sily konkurencie a to či majú prevahu grafické karty ­(výkon­), alebo hry ­(ich náročnosť­)...spomeňme na prvý FarCry, Crysis alebo Crysis 3 a pod. ­(vtedy GPU trpeli­). Korelácia týchto kriviek vzájomne vytvára isté obdobia, kedy sa to AMD­/ATi zadarí!
Odpovědět5  0
prasopras (340) | 3.12.202419:00
Vite, co na to ma vliv?

Zacnou si moc verit a pose.... jednu dve generace.
Vyvojove to nedaji.

HD2900

R9 390 apod

RX8900
Odpovědět0  1
zero8327 (123) | 4.12.202414:24
Problém ATi HD2900 bol hlavne to, že si neboli istý prechodu z 90nm na 65nm pri najväčšom čipe a zvolili iba dieshrink na 80nm... nižšie rady HD2000 boli 65nm preto tam problém nebol. Do polroka prišla ATi s novou generáciou HD3000 ­(dokonca v dvojčipovej verzii­) a o ďalších 9 mesiacov HD4000...to je z dnešného pohľadu až neskutočné.

R9 390 ­- tak tam už začínalo cítiť, že AMD nemá dostatok financii na utiahnutie CPU aj GPU a začalo byť cítiť podfinancovanie ­(Rory Read­) + ruky im zväzovala aj zmluva s Global Foundries v podobe minimálneho odobratého množstva wafferov...procesory sa nepredávali ­(tie som si nekúpil ani ja ako fanúšik AMD­)...a GF nemalo nič lepšie ako 32nm SOI a 28nm Bulk proces, až z Polarisom a prvými Ryzen­-mi prišiel na rad licencovaný 14nm proces Samsungu pre GF fabriky.

....ono R9 390 a HD2900 má jedno spoločné, 512bit šírku pásma pre pamäte...jednoducho keď čip zaostáva, tak sa mu snažili dať infúziu v podobe obrovskej priepustnosti pamätí. To si vyžaduje obrovský čip a ten má potom obrovské množstvo tranzistorov, ktoré hrejú

Aby sme chápali súvislosti prečo AMD nemalo prachy, tak Najväčšou pohromou pre AMD boli dvaja CEO,..Hector Ruiz a potom Rory Read...jeden chcel mať portfólio ako Intel + nVidia a druhý, to potom hasil tým, že škrtil financie....nebyť Lisa­-y Su, tak AMD už nie je. Takže aký zmysel by dával druhý pokus o čiplety v GPU ­/RX 8900 XT­(X­) ­/, ak by to nepodávalo výkon, ktorý by sa očakával od takej plochy kremíku a oni ten kremík potrebujú lepšie využiť v podobe Akcelerátorov Instinct MI300­/MI350 ­(tam sa točia tie veľké peniaze...však nVidia?­)

Odpovědět0  0
prasopras (340) | 4.12.202415:09

u HD 2900 byl nejvetsi problém v tom, ze na tehdejsi hry to byla proste nevhodna architektura, ktera spotrebovala obroske mnozstvi transistorů

GCN 280, 380 az do Polarisu jako 480 si poradne ani nepamatuju, proste to byly grafiky trzne o nicem.

u RX 7900 nezvladli frekvence a navazne u RX 8900 chiplety ­- opet 4 roky darovali nVidii

Kde vykopali Ruize nechci vedet, ale nevykopli ho dost brzy. AMD mela koupit nVidii ­(zelena + zelena­) a do roku 2015 pod Huangem by prejeli Intel.

Read byl krizovy manazer a trochu se mu nasazuje psi hlava. Prisel, cutoval a odesel. Meyer byl take docela orezavatko.

Rizeni podle cisel je dulezite z jednoho duvodu ­- kecama se neuzivis a kdyz mas cash zero, nikdo se s tebou bavit nebude.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.