reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od rizecek
Spíš z toho bude větší bordel... Na co dělat větší počet P­-Core narveme tam LP piko Core :D 😂
Kdyby se udělali radši 10­-12­-16 P­-Jádra s větší L3 Cache
Odpovědět0  0
Kdyby lidé kupovali rozumnější varianty, tak se mají svatý klid.. Za mě 13600K a 13700K musí být dostatéčný absolutně na vše a po dlouhou dobu.
Už ta 13900K je dost vyhnaná co potom ta 14 generace... Ale dělají to také vysoké počty jader. Kdyby Intel dal pryč nepořebný Hyper­-threading a lidé si k tomu jeden den sedli s srazili napětí, tak jim ten cpu možná i přežije.
Na svojí 13600K jsem vypnul Hyper­-Threading, kde mám lepší výkon v 90% hrách. Přiškrtil napětí a teploty slezli v průměru o 7­-10 stupňů a spotřeba v plné zátěži slezla o 50­-70W, ale pak jsou tu tací, kteří si přetaktují i 14900KS :D Nepochopím...
To, že desky tam rvou nesmyslně vysoké napětí se ví možná posledních 10 let.
Odpovědět0  0
FE edice ano, ale jinak verze od Asusu, MSi, Evga měli klasické 8 pin.
Odpovědět1  0
1­) Proto nekupuju rozežrané 400+W karty za 50K+.
2­) Kde je teda přesně chyba. Však se Nvidie bránila tím, že uživatelé jsou v podstatě troltlové, kteří neumí pořádně ,,zasunout´´ napájecí konektor.

3­) Furt mi to příjde nepochopitelný, proč zrovna u téhle generace se řešil nový druh napájení, když karty mají při nižší spotřebě vyšší výkon, než minulá 3090 Ti, která měla 3x 8Pin
Odpovědět1  0
Docela by mě zajímalo, jak by dnešní hry za poslední 2 roky fungovali nativně ve 1440P na RTX 4090, protože mi příjde, že zachvíli budeme asi kupovat jen grafické karty, aby jsme rozjeli tyhle všemožný AI kraviny co na nás ten šikmookej ze zelenýho společnosti sype. Generace FPS se zvýšeným input lagem a ořezaným obrazem na hry, které čím dál více pohání nefunkční Unreal Engine 5, který vypadá kolikrát, jak z roku 2015.
Battlefield V ­- Metro Last Light ­/ Exodus ­- Crysis 3 to vše byly hry, které fungovali nativně a v pohodě a na 10x slabším pc.
Odpovědět0  3
Vážně tohle dokáže někdo sledovat nebo kolikrát i rozeznat ?
Jediný znatelný rozdíl je zase v poklesu fps a na vyšších hw požadavcích. Je to slušná bída, když v takové hře chodí ve 4K s DLSS na 4090 hra stejně, jako například The Division 2 v otevřenějším a hezčím světě na 3090 se stejným nebo možná i lepším výkonem.­'
Ale to by se jinak kartičky neprodávali... 👌
Odpovědět3  1
Dočetl jsem to jen do poloviny a četl jenom pokročilé.. Tohle pokrok prostě není. Najde se spousta her, které vypadají lépe, než tenhle engine a chodí lépe.
A vyžadují nejmodernější technologie ? Tím myslíte, jak nás společnost, jako je Nvidia a vývojáři her oblbují pokrokem na úkor toho, že dnes nic nedokáže vyjít optimalizovaně, funkčně a všechen výkon se schovává za nákupem nejnovějších komponentů a DLSS kravinách.. ?
Roky je to stejný kolotoč... Člověk si nakoupí nové komponenty a vše chodí dobře a funguje. A za 3 roky se nic nikam neposune. Hry vypadají a fungují hůře, ale prostě už pořebujete zase upgrade. A lidé pak tomuhle říkají next­-gen.... 😂
Odpovědět0  1
Trailer může vypadat, jako film.
Cutscény mohou vypadat jako film.
Ale hratelnost, pak vypadá jako hra buď z roku 2015 nebo jak z roku 2023 optimlizovaný pro pc z roku 2030.
Unreal Engine je největší průser celého herního průmyslu.
Ani jedna hra na UE 5 mi nepřišla, tak přelomová, jak věčně lidi furt z tohohle enginu dělají.
Odpovědět0  0
A tupé ovečky to nakoupí 😂😂
Doufám, že všem majitelům to spálí desky skrz na skrz, aby si příště rozmysleli, kam rvát prachy 👌
Odpovědět3  1
Přečetl jsem 4 řádky a stačilo mi to... Pro mě ten engine je jen bordel, který vyžaduje vysoké požadavky na hw. Je ten engine špatně optimalizovanej, kde ve finále na tom dostávame hry, který se nevyrovnají ani 11 let starému Crysis 3.
Hrál jsem Robocopa, kterej chodil docela dost špatně a graficky na mě nějak vůbec nezapůsobil a když si vemu, že na vysoké detaily s DLSS jsem dostal 80FPS, tak co by člověk asi potřeboval, kdyby na tom enginu vyšla hra s pořádnou vegetací.
Nesmysl dnešní doby, kde stejnou práci dokáží udělat i jiné enginy.
Odpovědět0  2
Jo jenže tyhle prezentované dema nikdy neuvidíme ve hrách... Na to by potřeboval člověk 2x 4090 s DLSS 5.0 a generovaní FPS 3.0...
Odpovědět0  1
Takže trochu lepší textury a stíny za cenu 70% rozdílu ve výkonu :D
Tenhle engine není pro hry .... Ani jedna hra mi nepřišla jako nějaký next­-gen, jak z toho všichni okolo dělají. Spíš jako hry graficky pomalu na úrovni z let 2017­-2019 optimalizovaný pro pc na rok 2030.
Hraju hru Middle Earth: Shadow of War a dost mi to graficky připomíná i ten Unreal Engine 5 bohůžel z roku 2017 to chodí v nativním 1440P stejně, jako Unreal Engine 5 s DLSS.
Unreal Engine 5 chce být next­-gen, ale nějak se mu to nedaří.
1­) https:­/­/i.imgur.com­/7DGaDWI.jpg
2­) https:­/­/i.imgur.com­/vKl3Jub.jpg
3­) https:­/­/i.imgur.com­/hlnvuBB.jpg
4­) https:­/­/i.imgur.com­/mo1wq8Z.jpg
Odpovědět0  4
Mě by docela zajímal ten nárust ve hrách, protože mi příjde, že jsem asi jedinej, kterej ví, že navyšování frekvence nemá zase až takový dopad na výkon ­(spíše žádnej­), jako spíš na spotřebu a ten slavný cinebench....
A docela by mě zajímalo, kterej blázen za tohle dá prachy, když si člověk může koupit 13700K­/14700K a hodit si to na tu frekvenci sám.
Každá generace má určitou frekvenci na který se nárust výkonu v podstatě zastaví a už se navyšuje jen spotřeba. Ale od 8­-9 generace Intelu to je většinou v rozmezí: 10% nárust výkonu za 25­-35% nárustu tepla a spotřeby.
Odpovědět1  0
Takže v budoucnu budou dělat bordel v generacích a rovnou už v tipů jader... Proč nenechat jen P+E nebo nenarvat do cpu více P jader?
Koukám na to z pohledu hráče, kde vím, že dost her nebude umět pracovat ani s E jadrama, natož ještě s dalšíma, když už Hyper­-Threading dokáže nadělat neplechu.
Kdyby vyšli i5­/i7 s 12­-16 jádry udělali by možná lépe.
A pokud někdo hledá cpu na práci sáhne po Ryzenu i když zase nevím k čemu, když by dnes 90% softwarů mělo využívat práci přes cuda jádra.
Odpovědět0  3
Osobně jsem hráčem už dost dlouho a narval jsem do PC už také dost peněz, ale v těhle funcích se už pomalu začínám ztrácet... To je samé AI, snížení rozlišení, falešné ­(vymyšlené­) FPS. Netvrdím, že je to úplně na škodu, ale rád bych uvítal pořádné grafické enginy a ne předražené karty, kterým hoří napájení. Hry postavené na Unreal Enginu, kde grafika her vypadá jak z roku 2015 pro HW z roku 2030 a vše generované za pomocí AI, aby to vše nějak mohlo fungovat..
Když Nvidie přišla ve 2019 s DLSS říkal jsem si, že by to mohlo být fajn, ale zároveň také průser a je to tu.... Dokáže to vylepšit obraz, ale dnes tu je AI ne kvůli nám hráčům dostat lepší výkon, ale jako náplast pro lenost vývojářů hry pořádně vyzkoušet, otestovat, optimalizovat.
Jo ušetří jim to čas. Klidně i 2­-3 měsíce optimalizovaní, ale zase na to doplatíem jenom my.
Nevím prostě mi vše dnes příjde strašně umělé oproti tomu na čem jsem vyrůstal... Crysis 3, kterej fungoval nativně v 1080P na GTX 650 Ti při 60FPS a dnes, aby jste na dnešní hry potřebovali 20x rychlejší kartu s dopočítáváním FPS a ani se to nevyrovná graficky tomu Crysisovi.

90% her se dnes nevyrovná graficky ani hře The Division 1 a to ta hra dostala pořádnej downgrade grafiky
Odpovědět0  0
A já doufal, že výjde ještě jedna generace do LGA 1700 pouze s P jádry. 12­-16P jader na 5.3­-5.5GHz
Odpovědět2  0
50K za grafiku..... To dá jen milionář nebo blázen, když se dá slušně hrát už se 4080 za 30K.
Za ty prachy si to může mít výkon jaký chce. Jsem zvědavej opět na to jejich napájení, jak zvládne neschořet při vyšší spotřebě.
Odpovědět2  3
Huang a jeho AI spása pro lidstvo... 😂
Ať se také zaměří konečně na hráče a kouká navalit nějaké pořádné karty a ne ten předražený bordel.
Vydat 4060, která je výkonově horší, než 3x roky starší model, ale tvrdit, že je rychlejší díky DLSS 3.0.
Jsem dost zvědavej co tady bude za 5­-7 let. Nvidie bude stavět firmu do segmentu AI akcelerace a my budeme nucení kupovat takové grafiky, hrát na falešných fps a obraze a ještě s konektorama, který nám podpálí byt 😂
Odpovědět9  3
Problémem je pouze hyper­-threading nebo E jádra. Na těhle cpu je to na škodu, než k užitku.
https:­/­/youtu.be­/heJFBCKk7hA?si=8EDacDV90omcFepT
Odpovědět0  0
Tak to jsem zvědavej, jak ten příkon a vyprodukovaný teplo se bude jednou chladit a jak to zvládnou přežít tyhle mega zázračný napájecí konektory, když nejsou schopný přežít ani 300­-350W.
Já to říkal už ze začátku, že to je jen přístup k výšší spotřebě... Takže ne, že za 5­-8 let nebudeme mít co hrát, ale ani na to hraní nebudeme mít.
K tomu ještě nějakou 17900K 7GHz 300W TDP a můžeme pořádat grilovačku a saunu v jednom 😂
Odpovědět2  1
Ano... zachvíli budeme kupovat grafiky za 30 000Kč, aby nám šlapalo rychleji AÍčko.... Nvidia začíná vymýšlet čím dál více kravin skrze AI... RTX remix..., ale aby zlevnili grafické karty nebo přinesli pořádný nárust, tak to ne.
Mám grafiku na hry. Né, abych si tu vytvářel nějakého robůtka..
Odpovědět2  2
To byly zlaté časy, kdy se tu řešila jen spotřeba,výrobní proces grafických karet a ne takové kraviny, jako celé AI, které do budoucna ten PC svět pošle více do hnoje.
Odpovědět1  2
Už 13900K nemá moc pěkné parametry, ale opět je to klasickej Inteláckej postup. Tavit křemík na doraz co to jde.. Problém docela je ten, že už ani ta frekvence nedosahuje takového nárustu.
12900K vs 14900K pomalu 1GHz rozdíl a ve hrách rozdíl v průměru 15%

Furt pevně doufám, že Intel napadne vydat do socketu 1700 generaci bez Hyper­-Threadigu a E jader.
Protože ani jedno není z pohledu hráče dobré na ty hry.. Nebo spíš nevím, proč takové cpu nedělat, když je Intel schopný do jednoho křemíku narvat 32 vláken. A co se týče sotwarů, tak nejspíš většina už podporuje práci přes Cuda jádra.
i5­- 10 ­/ 12P jader
i7­- 16P jader
Odpovědět4  1
Kdo by o Windows 12 stál, když většina má a nejspíš bude mít furt Windows 10.
Odpovědět3  4
Tak to je divné, ale já nic neplatil. Myslel jsem to tak, že proč platit za to, abych nebyl omezovanej ve sledování. Nainstaloval se Adblock a fungovalo to. A 7­-10 let to Google neřešil a teď najednou vymyslí, že by se za to mělo platit.
Odpovědět1  4
Já ho stále nemám. Stále ta myšlenka, proč platit za něco co tu 10 let bylo zdarma je silnější, než jim dát i těch pár stovek za měsíc.
A do budoucna se to jistě zdraží, protože si Google řekne: Zdražíme to a lidi nám to zaplatí, pokud se nebudou chtít koukat na reklamy.
Já to furt vidím jen jako zlodějnu. Zachvíli budeme platit i za používání Google vyhledávače.
Odpovědět5  6
Ty kliky by jste potřeboval spíše vy, ale aspoň 200 denně, aby jste neměl energii vyprodukovat takové kraviny.
Odpovědět2  0
Začínám vás podezřívat z toho, jestli nejste náhodou nějaké AI, které generuje random takové kraviny.
Koho vůbec zajímají takové slohy. Nejspíš nikoho, když vidím věčně ty palečky dolu.
Už jste se tu předvedl, že žijete, tak by jste se mohl stáhnout zase do ulity na 2 měsíce. Byl tu klídek v diskuzích.
By mě zajímalo, jestli na tomhle serveru vůbec existuje nějakej způsob admina, že by vám dal perma ban.
Vy stejně budete nějakej blázen pro ktereho neměli kapacity. Účet založen v Červnu 23 vytvořeno 975 komentářů. Je vidět, že nemáte nic rozumnějšího na práci, než nám tu všem cpát ty vaše vědomosti...
Odpovědět8  0
Mám roky Nvidii a ano odírá lidi. Zatím co AMD dodá větší počet jader, cache a s tou pamětí byly taky napřed. Ale dnes je celý PC segment jen o tom odrbat co nejvíc lidi.
Popravdě jsem myslel, že už tu od vás bude klídek od těch vašich mouder co je jak lepší. Vědět vše o všem nejlépe, ale bohůžel... Stejně 90% vašich komentářů jsou úplně i ničem. Hlavně, že tu stihnete za den přidat 10 komentářů
Odpovědět0  0
Ano. Ale to, že poslední 3 roky dokázali za 10­-13 000Kč nabídnout 12­-16Gb pamětí to je úplně jedno.
Za mě RX 7000 ani RTX 4000 nejsou dobré karty. Všechen výkon vyhnaný pouze přes AI a toť vše.
7800XT je jen levnější a podvoltovaná 6800Xt.
A Nvidie nám dodá po roce ,,plnou´´ verzi RTX 4000. Verzi, jak měla vypadat už v den vydání + tu jejich degenerativní FREJM GENERACI
Ta 4070 Ti Super je dost zajímává karta, ale opět zlodějna od pana Šikmookého... Výkon Super kartiček tu měl být v den vydání ne po roce, ale toť klasická zlodějna Nvidie.
Jen škoda, že nejsou pořádné, kvalitní, optimalizované tituly v kterých by se ten výkon karet obhájil
Odpovědět2  2
Tak, jestli z 230W udělají 320W,tak to jsem zvědavej na RTX 5000. To se zase vše bude tavit při 350­-500W.
Myslím si, že 90% hráčů je ráda, že aspoň tyhle karty dokáží překvapit pěknou spotřebou, když ne cenou.
Odpovědět0  0
16GB využití je jen alokační vram. Dedikovaná může být menší.... A staré hry... to dokáže využít na plno snad jen serie Call of Duty.
Odpovědět1  1
Za 13­-15K max by to byla dobrá karta... Ne za cenu za kterou za rok vyleze RTX 5070 Ti s výkonem 4080.
A takový prodej já podporovat nebudu, kde Nvidia první udělá paskvil a honem to lidi nakupte a až po roce vydá čipy, tak jak měli vypadat při vydání.
Odpovědět0  3
Za low end se dá považovat i ten paskvil jménem RTX 4060.
Odpovědět1  1
A rozmazaný obraz postřehnutelný při 1000FPS a 10x násobném zpomalení videa.
Odpovědět0  0
Stále čekám na oznámení nějakého levnějšího 1440P Gsync 120­-144HZ od 10­-12K
Odpovědět1  0
Single u Call of Duty bylo něco v čem Battlefield moc nevynikal, když nepočítám Bad Company 2 a BF 3, ale Modern Warfare 3 je slušný poděl.
Za 1600Kč dostanete úplně stejnou hru jako MW 2. Jen pozměněné trochu mapy do multiplayeru a singleplayer udělat na způsob Warzone.
Na to, jak s 2019 skočili na vlak a ta hra měla absolutně vše skvělé co jsme zažívali před 10 lety, tak během dvou let se to zase propadlo.
Bohůžel je to zdarma z toho důvodu, že prodej, hratelnost tohohle dílu je možná nejnižší za celou dekádu. Neskutečný odpad ténhle díl.
Odpovědět0  0
GTA 6 a celý internet se může zbláznit. ÓHHH bože.... Stejná kravina jako GTA 5­-4­-San Andreas jen v jiném městě s podporou Ray Tracingu a DLSS.....
Dost se mi líbí, jak hned každej píše, jak úžasně hra vypadá a přitom je to předem renderovaný trailer a gameplay záběry nikde, ale už teď je to TOP HRA. Tupost dnešních naivních hráčů nezná hranice.
Odpovědět2  0
A tohle je důvod, čeho se v budoucnu bojím. Nic jako hrubý výkon a nativní rozlišení nebude existovat vše se bude renderovat přes technologie tipu DLSS redukce rozlišení obrazu, zvyšování latence, vymyšlené fps a bůh ví co ještě... Určitě se to v jiném odvětví PC určitě hodí, ale na herní scéně to už dnes je na škodu. Vývojáři si zaplatí DLSS, kde z reálných 60FPS to udělá falešných 150 lidi jsou rádi...
Z Nvidie se stává firma, která nedělá nic pro hráče a cpe všechny prachy do vývoje AI a ještě vymýšlí kravinky jako hořlavé 12WPVHR konektory nebo jak se ty kravinky vůbec jmenují.
Ještě, aby to ve finále nedopadlo tak, že Nvidia bude primárně vyrobcem pro firmy, kde se více využije akcelerátor umělé inteligence, kde jakoby herní výkon ty karty nebudou mít žádný.
Ale z pohledu hráče je to prostě mínus. Mínus v tom smyslu, že se hry nebudou optimalizovat tudíž nebudou vůbec funkční ­(viz rok 2023­) a bude se spolehat na falešné generátory fps a obrazu. Co se týče cen karet každou generaci, tak ty jsou také čím dál méně přívětivé.
Odpovědět2  3
Tahle obluda neměl nikdy vyjít. 4060­/Ti je jen výzdoba na krámech oproti 3060­/Ti
Odpovědět1  0
Tou mozkovou kapacitou myslíte jako sebe ? Vždyť se ty kraviny od vás nedají kolikrát ani číst.
Odpovědět0  0
Son_of_the_bit:
Já nechopím komu vy furt tady cpete svoje názory a myšlení, které je kolikrát uměrné 10 letému dítěti. Podíval jste se na historii svých přespěvků. Pálců dolů a nahoru. 30x komenářů denně, kde očividně nedokážete psát rozumně k věci. Plácat kraviny. Co vás na tom baví? Nemáte nic jiného na práci. Já tu jsem také každý den, ale na to vaše jméno začínám mít docela už i alergii, protože vím, že to bude zase absolutní výmysl.
Se trochu nad sebou zamyslete. Nemusíte ke všemu psát něco, když to nikoho nezajímá. Vy si odpočinete a my též 😂😂
Odpovědět0  0
Můžu mít otázku k čemu nebo proč vůbec jste tady na tom serveru. Nemáte kámoše. Práci, kde se vykecat z podobných kravin. Všem tu cpete své natvrdlé argumenty, názory, ale nikoho to očividně nezajímá, podle těch palců dolů.
Každej den 8­-15x komentářů a úplná kravina.
Odpovědět0  0
Doporučují pozvolna omezit návštěvu tohohle serveru nebo vůbec zapínat PC či telefon. Je vidět, že nemáte na práci nic jiného, než tu za den komentovat 100 článků a ještě nesmyslnými argumenty.
Jako vytvořit 890 komentářů za 5 měsíců od založení účtu... Nejspíš vám tu vše očividně leze dost na mozek a nedokážete tu sesmolit nic co by bylo přinosem.
Odpovědět12  0
Je to 96C­/192T. 96 fyzických jader a 192 virtuálních a to vše při frekvenci 4.8Ghz. I kdyby to mělo max 4.5Ghz, tak furt je tohle za mě lepší rekord, než hranice 9ghz na intelu při zapnutém 1­-2 jader.
Rekord 4090 je způsoben tím,že ten má těch cpu v čipu násobně více.

Zřejmně tu nebudeš jeden z těch co vyrostli v dobách přímotopů FX 8350 a Intel 2700K­/3770K...
Odpovědět4  0
A co se týče her, tak 7800x3d výjde výkonově lépe s o 900W nižším příkonem a 90%nižší pořizovací cenou.
Ale 96 jader na 4.8Ghz to je sakra slušný. Udělat tohle Intel, tak se s tím procesorem propálí k jádru planety nebo to má příkon 3000W
Odpovědět7  1
Určitě za SUPER ceny 😂
Odpovědět1  0
Protože se vezmou staré mapy. Udělají se do enginu MW 3 a hra se najednou nafoukne, ale nevím co je u Call of Duty zázrakem, že sežere takové místo na disku. Spolkne všechnu Vram a polovinu ram.
10 let starej engine, kterej vylepšujou o osřejší textury a stíny a pak se to nafoukne. Jednoduchý.
Teď si vemte, že by kampaň měla 7H+, tak to máme dalších 50­-60Gb. K tomu určiět příjde ještět nějakej ten ,,WÓRZOUNEK´´ a dalších 80Gb je na světě, takže za půl roku se vším všudy bude mít hra 280­-300GB 👌
A když tohle vše pominem, tak největší sranda je ta, že když chci spustit MW 3 musím první spustit MW 2. Zahájit start MW 3 vše se restartuje. A s tím, jak vychází vždy updaty to člověk bude do měsíce 50x spouštět, aby si 20x zahrál 😂
Odpovědět0  0
Radši 4k 144hz, než takové nesmyslné číslo. Kolik ten cpu na 8Ghz žere ? 600W ?
Odpovědět0  0
14900K ­(32 vláken­)
9GHz ­(8 vláken­)
Rovnou mohli nechat zapnuté 1 jádro­/vlákno a nahulit tam 10ghz.
Nikdy jsem nepochopil k čemu tohle slouží. Leda, tak k zníčení celé sestavy. A ukázkou frekvence na kterou se dalších 15­-20 let Intel nedostane.
Spotřebu odhaduju minimálně na 500­-700W.

Kdyby nechali zapnuty všechny jádra, tak se z toho dostane stěží 7Ghz.
Ale na pohonění si na internetu určitě solidní výsledek. 👌
Odpovědět3  6
To jen AMD dává šanci lidem hrát kvalitnější tituly a ne tuhle remasterovanou 15 let starou kravinu.
Na tom AMD jsou věčně nějaké problémy. Nekompatibilita ram. Ovladače, kde jednou zvednou dost výkon a jindy zase rozbijí celej počítač.
Odpovědět2  3
Takže o 23% pomalejší nebo rychlejší, ale s 1x takovou spotřebou co Ryzen.
14 generace bude opět menší výsměch od Intelu. ,,Nestíháme dodat 15 generaci, tak tady máte více jader, turbo´´
Odpovědět9  0
A to je jen začátek. Jsem zvědavej co za kraviny to bude umět za 5­-10 let.
On film ­-Já robot´­- s Willem Smithem nebude zase tak úplně vedle. 😂
Odpovědět0  0
Já dal 2x šanci prvnímu dílu. Vydržel jsem u toho 7 hodin a i tak mě to nechytlo.
Odpovědět0  0
Běžně každý uživatel koupí kartu a hned ji jde podvoltovat. To jako mají lidé chápat ,,AMD tolik nežere, když si s tím pohrajete?´´
Odpovědět0  0
A spotřeba díky novému napájení aspoň 600W ?
Odpovědět0  0
Příchod Crysis 3 ve 2013. GTX 680+4770 a chodilo vše krásně. Next gen grafika jak prase.
Dnes po 10 letech 4090+13900K 10­-15x silnější čipy a potřebujeme ,,fake´´ fps, aby jsme měli dobrý pocit u srdíčka, že to nějak chodí.
Každej tvrdí, jak je to dobrá funkce. Ano možná to vylepší plynulost obrazu, ale k čemu vám je plynulost při 100FPS, když latence pc je jako při 50FPS.

Dříve se hry optimalizovali pro nejnovější hardwear, kde ty hry chodili v pohodě i o 3­-5 let starších pc. Dnes silné stroje,jak prase, neoptimalizované hry,FSR­/DLSS, kde v podstatě nehrajeme ani na nativní rozlišení a ani tak to kolikrát nedokáže člověk udržet okolo 120­-144FPS.

Abych řekl vlastní zkušenost, tak dřív jsem honil každé fpsko. Měl jsem 3070+9900K a chtěl jsem stabilně všude pokud možno těch 144FPS.
Provedl jsem upgrade na 3080+13600K a ty hry nechodí většinou ani na vysoký, bez RT a zapnutým DLSS na více jak 120FPS, tak jsem se rozhodl hrát vše max na uzamčených 120FPS, protože s dnešními hrami a hlavně jejich optimalizacemi nemá cenu ani pořizovat 144Hz monitor, natož nějakej 240Hz, pokud nehraje člověk 24­/7 multiplayery.

Jsem zvědavej co nás čeká za dalších 5 let. Upscalované rozlišení obrazu s vymyšlenými fps. DLSS a FSR je v rámci možností fajn. Sice to někde je horší, někde lepší, ale aspoň to v některých titulech dokáže vylepšit obraz, ale stejně se já už nezbavím toho pocitu, že s tím výkonemco tu dnes máme k dispozici a že při 1440P hraju s DLSS vlastně na nižší rozlišení, než FullHD, tak ty hry chodí opravdu mizerně.
Hlavně, že je vše dražší, více náročnější a grafický vizuál je k zblití.
Odpovědět1  0
Tenhle cpu podělali jak mohli.
Ten cpu měl mít konfiguraci jader: P ­- 8 jader ­/ E ­- 10 jader. Trochu lepší cache +200Mhz a byl by to dobrý cpu.
Jinak bude stát za nic. Pouze přetaktováná 13600K
Odpovědět1  0
Lituju každý rozum, který dá přednost 1080P 540Hz oproti 1440P 240Hz. Já hraju vše na 120FPS­/120Hz a příjde mi to dostatečně plynulé, než furt řešit nedostečný výkon cpu, aby mi hry běželi co nejblíže k obnovovací frekvenci.
Odpovědět0  0
Optimalizace v roce 2023 a ještě Cyberpunk ? Nebuď vtipnej.
Odpovědět0  8
Stejná hra. Stejný engine. Vyšší nároky... Ať jdou s touhle kravinou taky už někam. Když neumějí optimalizovat vývojáři své produkty, a´t se na to vykašlou a ať lidi netvrdí, že grafickej pokrok jde hold dopředu ! Graficky kolikrát horší, než hry z roku 2015­-2017 s optimalizací pro nevydaný HW.
Odpovědět1  13
1.5 hodiny hraní a ta hra je pro mě absolutně nezábavná a nefunkční. A co se týče grafiky, tak taky žádný zázrak. Technický stav taky špatný.
Sliby jako to, že budete moct lítat vesmírem a prozkoumávat celé planety, taky pryč. NPC chování, jak z GTA IV
Odpovědět5  0
Hodnocena podle koho. Ta hra je odpad
Odpovědět5  5
To je zajímávé, že průzkumník souborů fungoval vždy svižně. Asi nějaké bystré oko dokáže rozeznat rozdíl rychlosti v 1 nano sekundě.
Odpovědět1  4
Neoptimalizovaná hra, kde si ji můžete na Steamu koupit za 100E, aby jste dostali 5 denní přístup do hry, než hra oficiálně výjde. Gameplay za mě není nic moc. Grafika hry průměr. Výkon na 3080+13600K no 1440P nejnižší detaily 65fps s propady na 40. Hold pokrok dnes nezastavíš 👌🤮
Ve zkratce: Momentálně nehratelná hra s velkým hypem a očekáváním, kde každému po pár hodinách spadne úsměv na tváři.
Odpovědět3  2
Tyhle 60 modely nekonkurují ani o 2 roky starším bratříčkům ­(3060 ­/ 3060 Ti­) a má to konkurovat AMD ? 60 segement RTX 4000 je pouze vtip a výsměch od Huanga k nám hráčům. 👌
Odpovědět10  0
Takže bum okolo toho, jak lze vše prozkoumávat, kde vám vývojáři budou házet klacky pod nohy 👌
Ještě to ani nevyšlo a už to bude průser.
Odpovědět0  1
Když se snaží prodávat čipy jako 4070 za 22K a 4060 Ti za 15K s oseknou pamětí a žádným výkonem oproti minulé generaci, tak se není čemu divit.
RTX 3000 to putovali radši kamiony na těžbu, než k nám.
RTX 2000 nepřinesla pomalu žádný výkon.
GTX 1000 tam byla zase kryptohorečka.

RTX 4060 mohla mít klidně 10GB 200W a hned by byla výkoná jako 3080. Hlavně, že se to snaží prodat s tou jejich propagací na falešné FPS... Nenažraný ubožáci.
Odpovědět4  4
Pěknej hnus.
Odpovědět0  0
Úplně jednoduše byl přetaktován na 6.3GHz... nechalo se zapnuto jen 8 jader. Bez hyper­-threadingu a E jader. Nebo se vypnul jen Hyper­-Threading od kterého mohl Intel opustit už u 12 generace, protože ho nahrazujou s vyšším výkonem E jádra.
Odpovědět0  0
Přechod z 13600k nebude mít smysl na 14600K. To už bych radši vzal 13700K s 8 jádry. A 14700K+14900K budou drahé a rozežrané, že to nebude mít člověk šanci uchladit.
Například takovej Battlefield 2042 dokáže využít dost procesory, kde 13700K topí ve hře přes 75 stupňů, takže od 14900K očekávám ve hře příkon cca 160­-200W a teploty 90+ :D

Je hezké, že tu furt máme silnější procesory. Škoda jen těch nedodělaných her, kde i na nejnovějších cpu to stěží běží na 144FPS.
Ani nechci vidět ty ceny.
Odpovědět1  0
Ok, tak tomuhle čipu už udělali naprosto vše 👌
nejošklivější design na nejzbytečnějším a nejhorším čipu za poslední roky. Škoda, že to nemá nějaké to RGBéčko 😂
Odpovědět0  2
Na fullhd dneska už každej kašle. Už chceme Oled 4K 144Hz
Odpovědět0  0
Největší háček je v 8GB vram. Nižší sběrnici a ceně. Nvidie s cenou dolu jít nechce, ale bude propagovat jako hlavní tahák DLSS 3.
Měl jsem už dost grafik ­( 970 ­/ 1070 ­/ 1080 ­/ 2080 ­/ 3070 ­/ 3080 ­), ale tuhle generaci s radostí přeskočím, protože vím přesně co se bude dít za dva roky.
Nvidie nevydá RTX 5000 dokud se neprodají RTX 4000. Trochu srazí cenu, kde třeba taková 4070 Ti bude za 18 000Kč a půl roku na to výjde 5070 Ti za 25 000Kč s dalšími 25­-30% výkonu navíc. A to jejich slavné napájení také nepřidalo ničemu na kráse.
Jediná použitelná karta je za mě 4070 Ti a 4080, ale ne za tyhle ceny.
4070 také není špatná, ale tam je podělaná ta sběrnice. Sice nám hráčům to může být relativně jedno, ale i tak.
Ale ten nedostatek vram je větší průser. Už 3070 mohla mít 10GB a 3080 12GB. I když si člověk koupí 4060 Ti, tak se s ní bude dát hrát na 1440P, ale zároveň se najdou hry, který budou narážet o těch 8GB vram.
Zase to třeba jinak vnámají lidi, který mění karty ob generace.
Odpovědět1  0
A co to je 150W ? Úplný nic. 120­-180W je spotřeba, tak akorát pro 7500­-7600 ­/ RTX 50­-60 modely. Radši, ať to má vyšší spotřebu a nějakej výkon, než to co předvedla Nvidie s RTX 4060­-4060 Ti. Přiškrtili čipy na spotřebě a oproti minulé generaci žádný nárust výkonu.
Odpovědět3  1
Tahle generace je snad nejhorší za posledních 5 let. Ceny a parametry karet absolutní výsměch.
Jediná karta, která se vyplatí je 4070 Ti.
4070 má zhoršenou sběrnici na vram.
A o zlodějně v podobě 4060 ani nemluvě, ale co DLSS FG vše napravý :D
Opět další podpásovka od Nvidie.
RTX 2000 pomalu žádnej nárust, protože se soustředili na Ray Tracing.
RTX 3000 nedostatek čipů na skladech, ale přitom putovali kamiony na těžbu.
RTX 4000 drahá, nezajimavá s hořlavým napájením
U RTX 5000 počítám, že to bude opět dražší o dost lepší výkon, když chtěji dosáhnout stabilně 3GHz, ale zase to bude mít spotřebu jako prase.
Ale hold ta RTX 4060 ­/ 4060 Ti to jako prostě ani nechápu, jak mohli vydat. Co je vedlo k tomu plýtvat křemíkem a každej, kdo tohle pořídí je za mě hlupák, pokud má něco z generace RTX 3000
Odpovědět0  0
To nám bude papat takových 400W 👌😂
Odpovědět2  0
Je zřejmé, že jak RTX 4000 tak RX 7000 budou jen zlodějna v nižších třídách. Sice 7800 není nižší třída, ale je to spíše takové nejvíce prodávané zboží, které se nejspíš oproti minulé generaci nevyplatí.
Teď nejspíš oba výrobci se snaží ušetřit co nejvíc spotřeby, kde to má pak takovej výkon jakej to má a už úplně vidím, jak další generace bude totálně rozežraná a budou se ohánět, jak 5080 má 40% při spotřebě 400W.
Uvidí se co AMD ještě předvede, ale co se týče Nvidie, tak pod 4070 Ti je to jenom zlodějna.

Já si osobně počkám, až se toho lidi začnou zbavovat nebo i prodejní obchody, než teď kupovat zase kartu za 25K+, když za dva roky výjde stejnej výkon za 15­-17.

Ale AMD dnes vidím spíš firmu, která jde naproti k nám lidem­/hračům. Za to Nvidie okrást nás o vše, aby jsme mohli fušovat do AI a přinést kraviny tipu DLSS 4 degenarace input lagu....

Nikdo nikoho nenutí ty karty kupovat, ale za tyhle ceny to je jako si koupit Ferrari, který se bude válet před panelákem nebo se s ním zajede na nákupy, protože co se týče her, tak ty jsou poslední dobou v tak rozbitém stavu, že ta karta se nevytiží naplno ani s tím jejich ray tracingem.
Odpovědět6  2
Nebylo by od věci vydat nějakou road mapu s podporovanými čipsety. Ale takhle časté vydání cpu nepochopím. Koupil jsem 13 generaci a po těch hrách co vyšli v roce 2023 jsem se kolikrát sám sebe ptal, jestli to mělo vůbec cenu.
Co se týče výkonu v multi coru, tak nevím, jestli se to jako vůbec dá využít.
Sám jsem stavěl pc s tím, že do toho narvu aspoň ještě jednu generaci a ono prd.
Odpovědět0  0
To je zajímavé, že za ty 4 roky se najde dost her, kde Denuvo způsobuje propady fps. Ale popravdě se ani nedivím krádeži her z internetu, protože ty hry jsou dnes drahé na úkor toho v jakém stavu výjdou.
Netrpělivě jsem čekal na Last of Us. 1500Kč a pc port strašnej. Dal jsem jim měsíc na opravu a spustil to asi, až měsíc a půl od vydání hra po 30 minutách havarovala. Od té doby jsem na to neměl náladu.

A prokázat po 4 letech, že Denuvo nemá vliv na výkon je docela směšné. Odzkouší 3­-4 hry s nejnovější verzí Denuvo co nejlépe vyladěnou a v dalších hrách to bude dělat opět problémy.
Odpovědět2  1
Když tu už máme 14­-16 jádrové cpu nevidím důvod používat Hyper­-Threading. Zbytečná spotřeba navíc. Na render trochu využitelný na hry k ničemu.
Kolikrát s vypnutým hyper­-threadingem si může člověk dovolit lepší frekvence při stejné spotřebě, jako je procesor na základních taktech s HT.
Odpovědět1  1
A nebylo by lepší, aby tenhle konektor dospěl do úplného zániků skrze brány pekelné ?
Roky jsme tu měli 2x­-3x pin a ty karty fungovali. Fungovali na tom 500W karty v podobě 3090 Ti.
A dnes potřebujeme tohle ?
Tohle napájení je jen přístup k větší spotřebě a lenost ze strany Nvidie udělat karty s co nejvýžším výkonem a lepší spotřebou.
Jen čekám na zprávu, kde bude: ,,RTX 5000 masivní nárust výkonu i spotřeby. Bude vyžadován konektor 2x 12VHPWR. Nejvýkonější 5090 bude atakovat k 600W´´
Odpovědět1  1
Tak já zase nevidím důvod, proč by obě funkce měli být v každé hře. A kdyby nás AMD s Nvidii měli tak rádi, tak spojí síly a vytvoří technologii, která by byla na implementaci stejně snadná jako FSR s kvalitou DLSS.

Ale pro mě jsou tyhle funkce k ničemu. Ještě před rokem jsem chtěl všude DLSS dnes to považuju spíš jen za lenost udělat kvalitní optimalizace a do budoucna to vidím jako spíš hrozbu stavů her, které příjdou.
Další věc je ta, že DLSS tu je už od roku 2019 a i dnes aspoň já na 1440P v režimu kvality dokážu spozorovat zhoršení ostrosti hry nebo to, jestli hra trpí ghostingem. Je to sice dobrá technologie a rozhodně v lepší kvalitě, než v jaké to bylo před lety, ale to v jakém stavu vyšli poslední hry jsem tohle přestal řešit a začal hrát nativně na vysoký při 125FPS.

A DLSS generování snímků je něco co mělo zůstat pod pokličkou, protože to ani nejsou reálná FPS. Dříve každý honil ultra 60FPS nebo co nejnižší latenci a s DLSS frame generation nejde ani zapínat V­-Sync, protože to ten monitor ani nevidí.

Nejlepší by bylo, kdyby spíše čas a peníze, které vynaložili na tyhle funkce narvali do karet. Kdyby chtěli, tak dnes 4060 mohla mít klidně výkon 3080 s 12Gb, ale to oni ne radši nám budou tvrdit, jak je to rychlejší s DLSS 3.

Je mi jasné, že ne každý semnou bude souhlasit, ale když si vemu v potaz to, že jsem v rozmezí Září­-Listopad nakoupil 3080+13600K a ty hry chodí a vychází v katastrofálním stavu, tak nevidím důvod nějaké Upscalingy řešit.

Spíš by mě i docela zajímalo co je každým rokem na těch hrách furt dokolečka posledních 5 let stále více vše náročnější, když ta hry vypadají mi příjde stejně. Jediné co se mění je kvalita textur a možná trochu lepší stíny... Ale to je také dělané scvhálně. Nová hra, takže automaticky to prostě musí být náročnější, aby lidé zase nakupovali komponenty. Serie jako je Battlefield a Call of Duty jsou jasným úkazem toho o čem tu mluvím.
Odpovědět5  3
Takže já si koupím 4070 Ti ­/ 4080 a bude to buď a nebo ? Od začátku nechápu k čemu tahle redukce byla zapotřebí, když RTX 4090 žere méně, než 3090 Ti.
Celá ta redukce je o ničem. Napájet 300W+ ze zdroje přes redukci do karty.
Tady je aspoň vidět za co platíme. Nedodělané, žravé produkty s rozbitými ovladačemi.
Odpovědět3  1
Trapná komedie nic jiného. Nvidie tvrdí o 20% rychlejší, ale pouze s tou jejich generací kravin... V hrubém výkonu to bude kolik ? 3%.
Nvidie je v tomhle už opravdu dost trapná. Ani dnes DLSS není úplně dopracované k dokonalosti. S DLSS FG se zvyšuje input lag a zase se deformuje obraz.
4060 bude ve finále to stejné co 3060, potom co předvedla 4060 Ti
Odpovědět4  3
Klasickej bordel v tom zase udělají. Proč až teď ? Nebo proč vůbec ? Mohli radši zkrátit názvy na Intel i5 ­/ i7 ­/ i9. To ,,Ultra´´ má značit co? Ultra nafukucící se křemík ? Ultra spotřeba ? 🤔
Odpovědět2  0
Slušné pádlo do loďky o příkonu kolik 500W ? :D
Odpovědět0  1
PCIE 7.0... aha, takže příchod desek ne dřív než ve 2030 a příchod grafický karet podporované PCIE 7.0 2035.
Odpovědět0  0
Prase, aby se v tom vyznalo... Mnohem lepší varianta by byla, aby se vykašlali na tu hybridní generaci a dodali nám třeba čisté i5 12 P jader ­/ i7 16P jader ­/ i9 24 jader.
Ty procesory vychází, jak na běžícím páse. Člověk, aby se bál něco koupit z nevědomosti co příjde za 1­-2 roky.
Z pohledu hráče mi ty procesory příjdou k ničemu, protože ty hry jsou poslední dobou v dost špatném stavu. A když si vezmu to co jsme tu měli před 7­-10 lety, tak dnes bych čekal pořádnej next­-gen a ne ty repetetivní enginy, kde to vývojáři optimalizují, tak aby se to tvářilo náročn´ě.

Hlavně, že tu dnes máme 6ghz cpu ­/ 6ghz ram ­/ 3GHz grafiky a k čemu ? Největší zisk z toho mají stejně distributoři elektřiny.
Odpovědět1  0
Úplně bohatě by stačilo, kdyby Nvidie furt nevymýšlela kraviny. Drahé karty s nedozkoušenýma, hořlavýma konektorama, kde to pak svedou na hloupost majitelů karet. RTX 4000 nespolkne za zásuvky tolik co RTX 3000, ale najednou to potřebuje ty 12WPVHR či jak se to píše.
Roky to šlo bez nich a bůh ví co vymyslí Nvidie do budoucna. Maximálně,tak 2x 12VHPWR se spotřebou 700W.
Odpovědět5  1
A k čemu nám je 1000Hz, když dnešní hry v nativním rozlišení se 4090 a 13900K nedokážou kolikrát bežet stabilně ani na na 165FPS ?
Odpovědět0  0
Ti vymýšlí kraviny.... Ani jsem se nesnažil dohledat ceny, protože to by bylo zase 1080P za 15K+.
Odpovědět0  1
Tímhle tempem, jak s náma obě společnosti vydrbávají nebudeme mít za pár let na karty nikdo. A chováte se jako absolutní tupec.
,,Toxickej, protože nemá na Nvidií´´ ... Tou toxicitou myslíte ROZUM ? 🤔
Odpovědět3  1
Nejrozumnější by bylo přestat vydávat Ti verze.
Jako nechápu, jak tohle můžou vydat. Hlavně, že 4080 má spotřebu okolo 300Ws 16GB a tahle 130W karta má prd výkon.
Kdyby měla spotřebu 180W s 12GB, tak už by se o tom dalo uvažovat, jenomže to by mělo zase výkon 4070.
Odpovědět3  0
Proč nám dnes všechny společnosti prodávají nefunkční produkty to fakt nepochopím.
Odpovědět0  6
Mě by zajímalo jakej benefit vidí ostatní furt v tom DLSS 3.
Posledních 10 let každej hráč chtěl co nejvíce fps, což má za následek nižší odezvu­/input lag, ale teď příjde Nvidia s generováním snímku, kde v podstatě vám hra negeneretuje reálné fps jenom nějaký dopočítaný, ale najednou tohle nikoho neštve.
S tím jak je výkoná RTX 4000 řada bych si tu už dnes představoval pořádnou hru na Unreal Enginu 5 nějakej konečně next gen a ne ty repetetivní kraviny co vychází každý rok. Většina her vypadá furt stejně a ne li hůř, než 5 let starší hra, ale furt to chce novější komponenty.
Tohle mi fakt už hlava nebere. Když si vemu Battlefield 3­-4 ­/ Crysis 2­-3 a napálím to na ultra, tak to chodí lépe a vypadá lépe, než hry co dnes vychází. A proč ? Protože zmíněné hry vyšli v dobách, kdy jsme tu měli pouze 4 jádra na cpu. A dneska ty hry sotva chodí na nejdražších čipech.
Ale to je furt dokola. Koupí se RTX 4080 a pojede vše na vysoká fps. Vyleze RTX 5080 už to pojede hůř. Bude tu RTX 6080+15900K a kombinace RTX 3090+12900K bude mít trochu už problémy a proč, protože se už musí projevit stáří HW a nakoupit se vše nové.
Nevím, jak ostatním, ale mě příjde, že posledních asi 5 let ty hry stojí na místě. Místo, aby pokrok grafiky, fyziky ve hrách šel kupředu, tak stojí na místě a nebo hodí radši zpátečku. A ray tracing od Nvidie opravdu nepovažuju jako next­-gen nebo revoluci.

Netvrdím, že se nenajdou nové,pěkné hry, ale je jich hrstka oproti tomu co vše výjde.
Jsem hráčem asi posledních 15 let, ale poslední možná už rok mám problém vůbec něco dohrát. Buď mě od hry odradí věčné hledání a vyrábění něčeho nebo stav hry, kde poslední měsíce to je v podstatě nehratelné.
Odpovědět0  1
To se říká o každém Intelu, ale já nikdy neměl problém nic uchladit, když si s tím trochu člověk pohraje. Jasný, že 1.35­-1.45V s nomálním vodních chlazením člověk neuchladí. A navíc k čemu nám jsou furt výkonější čipy. Donutí to snad vývojáře vydat hry v lepším stavu ? Ne.
Dneska vychází procesory v tak krátké době, že aby člověk měl trochu lepší komponenty, tak by to 1x za 2­-3 roky musel vše měnit.
Odpovědět2  1
Většina lidí dnes nemá ani Windows 11, ale příští rok asi výjde Windows 12... Jsem zvědavej, jak to bude zase s podporou, jestli se ukončí pro Win 11 nebo Microsoft dokáže podporovat oba systémy.
Zlaté Windows 7.
Odpovědět0  0
Intel Core Ultra 7 14700K .... Dosti trapné po 20 letech, jakoby na tom někdy vůbec sešlo
Odpovědět0  0