reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od rizecek (2)
Proč nám dnes všechny společnosti prodávají nefunkční produkty to fakt nepochopím.
Odpovědět0  6
Mě by zajímalo jakej benefit vidí ostatní furt v tom DLSS 3.
Posledních 10 let každej hráč chtěl co nejvíce fps, což má za následek nižší odezvu­/input lag, ale teď příjde Nvidia s generováním snímku, kde v podstatě vám hra negeneretuje reálné fps jenom nějaký dopočítaný, ale najednou tohle nikoho neštve.
S tím jak je výkoná RTX 4000 řada bych si tu už dnes představoval pořádnou hru na Unreal Enginu 5 nějakej konečně next gen a ne ty repetetivní kraviny co vychází každý rok. Většina her vypadá furt stejně a ne li hůř, než 5 let starší hra, ale furt to chce novější komponenty.
Tohle mi fakt už hlava nebere. Když si vemu Battlefield 3­-4 ­/ Crysis 2­-3 a napálím to na ultra, tak to chodí lépe a vypadá lépe, než hry co dnes vychází. A proč ? Protože zmíněné hry vyšli v dobách, kdy jsme tu měli pouze 4 jádra na cpu. A dneska ty hry sotva chodí na nejdražších čipech.
Ale to je furt dokola. Koupí se RTX 4080 a pojede vše na vysoká fps. Vyleze RTX 5080 už to pojede hůř. Bude tu RTX 6080+15900K a kombinace RTX 3090+12900K bude mít trochu už problémy a proč, protože se už musí projevit stáří HW a nakoupit se vše nové.
Nevím, jak ostatním, ale mě příjde, že posledních asi 5 let ty hry stojí na místě. Místo, aby pokrok grafiky, fyziky ve hrách šel kupředu, tak stojí na místě a nebo hodí radši zpátečku. A ray tracing od Nvidie opravdu nepovažuju jako next­-gen nebo revoluci.

Netvrdím, že se nenajdou nové,pěkné hry, ale je jich hrstka oproti tomu co vše výjde.
Jsem hráčem asi posledních 15 let, ale poslední možná už rok mám problém vůbec něco dohrát. Buď mě od hry odradí věčné hledání a vyrábění něčeho nebo stav hry, kde poslední měsíce to je v podstatě nehratelné.
Odpovědět0  1
To se říká o každém Intelu, ale já nikdy neměl problém nic uchladit, když si s tím trochu člověk pohraje. Jasný, že 1.35­-1.45V s nomálním vodních chlazením člověk neuchladí. A navíc k čemu nám jsou furt výkonější čipy. Donutí to snad vývojáře vydat hry v lepším stavu ? Ne.
Dneska vychází procesory v tak krátké době, že aby člověk měl trochu lepší komponenty, tak by to 1x za 2­-3 roky musel vše měnit.
Odpovědět2  1
Většina lidí dnes nemá ani Windows 11, ale příští rok asi výjde Windows 12... Jsem zvědavej, jak to bude zase s podporou, jestli se ukončí pro Win 11 nebo Microsoft dokáže podporovat oba systémy.
Zlaté Windows 7.
Odpovědět0  0
Intel Core Ultra 7 14700K .... Dosti trapné po 20 letech, jakoby na tom někdy vůbec sešlo
Odpovědět0  0
Určitě to bude zajímavá karta, ale ta paměť nic moc.
Už bych čekal, že 4060 ­/ 4060 Ti budou mít dnes strandard 10Gb. 4070 ­/ 4070 Ti 12GB ­/ 4080 16GB.
Když si vemu, že ta 4060 Ti bude mít výkon více méně 2080 Ti, která měla 11GB.
V tomhle vždy asi bude vést AMD. Dostatek výkonu a hlavně i rozumnější paměť. Ale to je každou generaci něco.
Minulé byly lepší efektivitou RX 6000 oproti RTX 3000. Teď RX 7000 neměli slibovaný výkon a mají větší spotřebu, než RTX 4000.

Ale nějak se mi nechce věřit, že i tuhle 4060 Ti budou chtít lidi kupovat. Většina lidí stejně furt smaží na 1080P a pokud si minulý rok koupili 3060 ­/ 3060 Ti ­/ 3070, tak jim to vystačí ještě dost dlouho.

Mě osobně se nejvíce líbí ta RTX 4070, ale je to těžká podpásovka od Nvidie. První nebyly karty na trhu. Ceny byly přijatelné teprve minulý rok a teď vydají tohle. Sice ceny jsou za mě v pořádku, ale i tak. A jako marketing šoupnou to jejich slavné DLSS 3 degenerace snímků.
Odpovědět0  0
No nevzpomínám si, že by Intel měl někdy nějaké takové problémy i přes tu jejich masivní spotřebu, jak dřív každej nadával.
A já to nemyslel konkrétně na AMD nebo Asus, ale celkově na problémy s dnešní elektronikou kort v pc.
Nevím, že my musíme vyhodit několik desítek tisíc, aby se zjistilo, že to nefunguje podle plánu a až pak dostaneme v podstatě funkční produkty.
Pro všechny jsme dnes pouze testovací subjekty, ale kvalita produktů docela dost pokulhává.
Odpovědět0  1
Smutné. Člověk vyhodí 20­-25 000Kč za upgrade na 14 dní. Zajimavé, že ty desky neměli problém napájet 12­-16 jádra, dokud nevyšli X3D.
Ale budou to nejspíš ojedinělé případy, protože si myslím, že většina zvolila levnější cestu v podobě 7600x ­/ 7700x.
Odpovědět0  6
Tahle karta bude spíš pro 1440P hraní a 12Gb je dostačujicí. 8GB by byl už problém.
Spíš to mohli udělat, že by na ty 4070 Ti dávali už aspoň 16GB a ne až na 80 model, který je vždy cenou oproti 70 přestřelený.
Odpovědět0  3
Zájem o ně není, protože jsou ty karty drahé. Nehledě na to, že lidé nakoupili karty v prvních 4 měsících roku 2022, jelikož byly dostupné RTX 3000 za relativně dobré ceny.
Kdyby 4080 byla okolo 22­-25K ­/ 4070 Ti 16­-19K ­/ 4070 11­-14K, tak o tom lidé možná začnou uvažovat.
Odpovědět2  1
Tohle nikdy nepochopím. Platit za skiny takové dardy. K čemu to je lidem? Zlepší to účinost ? Zlepší to přesnost ? Ne. Furt jste stejně dobrý­/špatný hráč s potiskem na zbrani.
Odpovědět0  0
To musela téct i barva ze zdí a napájecí kaskáda se jen tak tak držet na desce :D
Odpovědět2  0
Ti se do toho zase tak zamotají, že ztratí pojem o čase a budou vydávat refresh za refreshem.
Osobně bych byl radši, kdyby Intel do budoucna opustil od těch kravin s E jadry a dodal nám radši třeba 10­-12 jádrové intel i5 ­/ 16­-20 jader i7...
Netvrdím, že ty E jádra jsou úplně k ničemu, ale známe Intel. Navýšení tipů jader, celková jádra, frekvence a za 3 roky tady je 500W i9.
Sice to nějaký výkon přidá, ale z pohledu hráče to dokáže občas v některých hrách zlobit.
Odpovědět5  0
Porovnávat Intel a AMD je docela úsměvné. Pokud někdo měří spotřebu těhle cpu, tak by se také mohli vypnout E jadra, aby odpovídal počet jader. Intel 13 generace a AMD ryzen 7000 jsou dobré čipy a je na každém z nás jak si s tím člověk dokáže vyhrát.
Já mám 13600K a srazil jsem ji v plný zátěži z 200W na 160W. Vypnul Hyper­-Threading, protože ve většině her co jsem testoval to spíš hře škodilo. Ale při hraní jak se zapnutým Hyper­-Threadingem, tak vypnutým jsem šel s těží přes 100W. Ve většině titulů se mi ten cpu pohybuje v rozmezí 75­-90W.
Odpovědět1  8
Spíš už bych byl radši za 1440P 144hz oledy, než furt tyhle 1080P monitory s takovou zbytečnou obnovvací frekvencí, která se využije jenom v Counter Strike a fortnite. Na zbytek her vám bude k ničemu
Odpovědět0  0
Na 1080P bohatě furt stačí 8GB i když je to opět další nesmysl, ze strany Nvidie, že na 3060 dá 12Gb a tady bude zase jenom 8GB.
Nevím, že neudělají 4060 ­- 10GB ­/ 4070 ­- 12GB ­/ 4080 ­- 16GB, ale zase nedává smysl výkon té karty nebo spíš, proč by se 4060 lidi hráli na 1080P... ale těch se zase najde.
Odpovědět1  0
Takže ne, že umí dělat bordel komplet vždy v celé generaci teď už ve způsobu napájení... Zajimavé, že ty staré konektory zvládali dojit i přetaktované RTX 3090 Ti a teď to cpou na úspornější 4080­-4090.
Je to totální blbost. Každej tvrdí, že to je lepší způsob napájení, ale nechápu k čemu to je. Kvůli úspoře pár cm na kartě ? Místo 3x 8pin na kartě je budu mít přes redukce pod gpu...
Odpovědět3  1
2kW při 5.1Ghz, takže při 5.5Ghz už spíš 4kW.
Dnes je taktování spíš kosmetická úprava za cenu vysokého TDP, než přínos nějakého rozumného výkonu.
Odpovědět1  1
Aha, takže Sony od dob PS 4, což už tu bylo v roce nějak 2013 mělo exkluzivity pouze pro PS 4. S PC hráči nebo ostatními se nedělili. Netvrdím některé hry co vyšli poslední rok i na PC jsou dobré užil jsem si je. Ale za cenu 1500 po nějakých 5 letecj co ta hra existuje a to jen proto, že se to optimalizovalo pro PS5 a 120FPS, tak si řekli, že už to je na takové grafické úrovni, že optimalizace pro PC nebude problém ?
Tohle je ukázka. Za málo práce hodně peněz. Co to je optimalizovat hry na PS 4 a 60FPS... Na PS5 se musel prekopat trochu ten engine, tak už s tím bylo více práce.
Ale to, až po jaké době ? Po 15 letech se to dostalo na výkon PC ? Jsem zvědavej, jak ta konzole bude schopná zvládat 120FPS za 5­-7 let. To se to zase optimalizuje na 60FPS a na pc se bude kašlat.

Buď, ať ty hry vydavají pro více hráčů, platform nebo ať nebrečí, že najednou by na pc byly exkluzivity. V případě Call of Duty by se mi spíš líbilo, kdyby to byla exkluzivita pouze pro pc a úplně se ze hry odebrala podpora ovladače a aim assistu, protože někdy to je kolikrát přehnané.
Tím nechci zase hájit nějak značku Call of Duty, která jde poslední roky taky do kopru, ale jde mi jen o princim, že Sony mělo exkluzivity bůh ví jakou dobu a teď jim strašně vadí by nevycházelo COD na konzole.
Odpovědět0  0
To jsou dnes fakt totální nesmysli. Posledních 15­-20 let jsme to nepotřebovali. Dnes má doma snad většina 1440P monitory a řeší se tu upscaling na videa... Co ještě ta nvidie vytvoří za blbosti na to jsem fakt zvědavej. Ještě by to ty videa mohlo převádět z 60FPS na 120FPS a v Ray Tracingu.....
Odpovědět0  0
Windows 11 tu jsou rok a už budou Windows 12 ? Kde jsou ty kecy ,,Windows 10 bude poslední systém´´´ .
Hlavně k čemu to je? Vezme se kód z minulého systému, který pohání všechny důležité funkce. Předělá se vzhled a je to úplně stejné jako 10 let staré Windows 7 a ještě si na nás vymyslí nějaké další kraviny ohledně nepodporovaných komponentů a ve finále ten systém bude stát za prd.
Zlaté Widnows Xp a Windows 7.
Osobně upgraduji systém z toho důvodu, protože vím, že v budoucnu to stejně bude muset každý mít a Windows 11 fungují v pořádku, ale jako po roce strašit s novým systémem ? Se jim nechce opravovat Win 11, tak radši udělají novej.
Odpovědět2  0
No ono i to DLSS kolikrát není žádná výhra. Zatím co jinou hru to vyšperkuje a přidá výkon, tak v jiné mi to příjde hrozné. Plus to občas přidá i ghosting. Spíš by s těmi upscalingi bylo nejlepší, kdyby Nvidie i AMD vydalo program, kde by se jednoduše aktualizovali hry. Něco jako je Geforce Experience, kde vám to ukáže podporované hry a manálně by jsme si mohli updatovat verze DLSS i u starších titulů.
Co se týče FSR 2.0, tak jak bylo psáno kvalita je stále nic moc. Je to hratelné, ale DLSS je v tomhle trochu dál.
Vůbec by třeba nebylo špatné, kdyby vyšel program, že by jsme si sami doma mohli přidávat DLSS. Přes noc by se nechal implementovat upscaling a běželo by to. Třeba v takovém The Division 2, tam by mohla být kvalita obrazu i lepší.
Odpovědět0  0
Ty v tom dělají zase bordel..
Odpovědět0  0
Aha, takže opět u té Nvidie dost lidí zdá se přemýšlí.
3060 měla 12Gb ­/ 3070 8GB ­/ 4070 12GB a 4060 s kterou půjde hrát v pohodě už i na 1440P bude mít opět 8Gb.
Fakt nechápu kroky Nvidie poslední dobou. Pak vyleze na povrch RTX 4050 Ti ­/ 4060 Ti s 10GB....
Jako by byl takový problém udělat 4060 10Gb ­/ 4070 ­- Ti 12GB ­/ 4080 ­- Ti 16GB
Odpovědět0  0
A reálný rozdíl výkonu při hraní je kolik ? 5FPS ? Opět Nvidia vymýšlí blbosti. Místo toho, aby co nejdřív dodali RTX 4060, tak se budou zdržovat třetí RTX 3060.
První nám nebyly schopný nic dodat při uvedení RTX 3000 a teď ladí každej čip, když už je tu nová generace.
Odpovědět3  1
Uživatelskou chybu.... Nvidie zase vymýšlí akorát blbosti, aby ušetřili pár cm na kartě. Snad každej dokáže pořádně docvaknout konektor....
Je to totální nesmysl tyhle konektory. 500W karty, kde jedna redukce přenáší veškrený proud a napětí z 3x8 pinů do tohohle prcka...
Já nevím, že dnes nemůže nic pořádně fungovat. Dřív takové problémy nebyly. Dřív člověk koupil PC za 30K a měl nejvýkonější pc. Dnes dá člověk 30­-50K jenom za kartu, kterou může akorát tak vyreklamovat.
Odpovědět6  2
By mě docela zajímalo, proč má AMD většinou podobné problémy, kde vám software odebere výkon hardwearu.
Hlavně, že každý většinou nadává na Intel co týče spotřeby nebo ceny, ale tam to většinou aspoň funguje.
Odpovědět4  9
Mě by docela zajímalo k čemu takové cpu jsou. Hnát už takhle základní výkonej procesor do maximálních frekvenci na úkor dalšího vyzářenýho tepla a spotřeby. Aby to u 14 generace nedopadlo, jako s 13, kde následujicí cpu i5 dotáhne výkon minulé i9 za 1­/2 cenu a spotřebu.
Každej Káčkovej cpu co jsem měl doma jsem zvednul o 500MHz absolutně nic to ve hrách nedělalo a v programech to byl spíš zanedbatelný rozdíl na úkor dalších 15 stupňů a 50­-80W.
Jdou sice ty cpu vždycky relativně dobře taktovat, ale za mě nebo pro mě to od 9­-10 generace Intelu nemělo vůbec smysl.
Odpovědět0  0
Ok, takže můžu hrát starší verzi při ultra na 130FPS a nebo tuhle novou s Ray Tracingem na 50FPS, ale hlavně že zase budu mít nádherný odrazy.... Tahle hra vůbec nepotřeboval nějaký ray tracing update. Možná jen textury ve vyšším rozlišení, ale jestli někomu stará verze při ultra přišla hnusná, tak je padlý na hlavu. Ano Zaklínač je hra, kde se dá v klidu kochat krajinou a efekty, ale k tomu nepotřebuju já osobně ani ultra detaily, natož zase nějaký ray tracing na úkor výkonu hry v rámci 30%.
Každej tvrdí, jak tyhle efekty jsou budoucnost pro hry, jak v budoucnu ty hry s Ray Tracingem poběží lépe. Ne nepoběží, protože se budou do her přidávat lepší RTX efekty, více vykreslované nebo v lepším rozlišení...
Já mám 3080 ve 1440P a na ultra+ to běží okolo 110­-130 s RTX On 50FPS...
Karty tipu RTX 4090 za 50­-60K jsou dělaný právě pro tyhle blázny, který jsou ochotný vyhodit takový prachy za 20FPS více v RTX hrách.
Jako pro mě je důležijtější hratelnost hry a příběh k čemu mi je grafika ve hře, když ta hra stojí za starou bačkoru.
Odpovědět1  3
Tohle za 25 000? Někdo asi dobře fetuje.
Zbytečně vysoká frekvence, kde na tolik FPS nedokáže normální hry rozběhnout žádný procesor.
A za tohle dá blázen takový prachy, protože za takovou cenu už může mít 4K IPS 144Hz. A na cestě jsou Oled panely.
Odpovědět0  0
9GHz, ale měli zapnutá pouze 8 jader a 8 vláken. Když si nechám na 13600K zapnutá pouze 6 jader a dám PC ven, tak z toho přes 6GHz dostanu i normálním vodníkem.
Ať nechají zaplá pouze 2 jádra a zkusejí 13GHz to bude světovej rekord.... Blbost tohle taktování. Řešit každej mhz. Bůh ví kolik času a dusíku se na tyhle blbinky spotřebuje.
Odpovědět0  2
Je dneska vůbec k něčemu taktování, které se využije spíše při herním výkonu ?
Jasně na honění těhle testů s čísílkama je taktování dobré a rozdíly jsou velké.
Bohůžel při normální práci a hraní, tam už je většinou rozdíl v přůměru max 7% za cca 15­-20% spotřeby navíc.
Mám 13600K, kde jsem zkoušel asi 10 her 1080P low 5,1GHz vs 5.6GHz a nic to nedělalo. Asi ve 2 hrách a někdy to bylo horší při OC než na základu, jenže dneska nikdo na takové rozlišení a detaily nehraje.
Za mě se Intel na tyhle P+E jádra měl vykašlat. Kdyby vyrobili i5 ­- 8c­/16T, i7 ­- 12C­/24T, i9 ­- 16C­/32T s lepším IPC, tak by to bylo lepší.
Odpovědět0  0
2560MHz vs 2820MHz tomu říkáte malá ztráta. Těch 300mhz je možná 10­-15% výkonu.
Odpovědět0  0
Bude stát ranec... Jestli 4080 stojí 32K, tak tohle bude okolo 26­-29K, pak 4070 v rozmezí 21­-25K a 4060 okolo 16­-20K. Takže opět čekat na příchod RTX 5000, až tyhle karty zlevní, protože za takový prachy to koupí blázen. Nejvíc mě asi zajímá ta 4070 co to bude zač, ale výkonem to nebude víc jak 3090 Ti si myslím.
Odpovědět0  0
Osobně nemám s podvoltováním dobré zkušenosti.
Zkoušel jsem to jak na 3070, tak na 3080. Vše běželo stabilně v Unigine Heaven po dobu 5­-7H. Některé hry fungovali v pořádku.
Pak bum najednou jiná hra a už to padalo + do toho odlišné verze ovladačů.
Dá se tím snížit dobře spotřeba, ale za mě si ty hry s tím prostě né vždy rozumí. Nebo mě to aspoň tak přišlo.
Odpovědět3  5
A spotřeba je kolik ? 300W při hraní a 400W v plné žátěži ?
Mám 13600K při 5.2Ghz a 1.18V a žere v plné zátěži 170W a při hraní okolo 80­-100W.
Nikdy jsem nepochopil k čemu někdo potřebuju dostávat z těch cpu maximum. K čemu v normálních domácím, herním pc to člověk nevyužuje. A pokud jde lidem hlavně o FPS, tak stejně ty cpu jsou nastavený, tak že jdou sice taktovat, ale při určité frekvenci se narust fps zastaví.
13 Generace od Intelu nemá cenu taktovat. Ten svůj jsem zvednul o 100MHz jen proto, že když jsem si zaplatil za to Káčko, tak s tím zkusím něco udělat, ale zase to má 20 vláken dohromady a ne 30 jako i9
Odpovědět0  0
Jelikož ceny RTX 3000 spadli, až tenhle rok, takže logicky normální člověk nevyhodí hned za kartu 35K. Na 1440P 144Hz ­/ 4K 60Hz postačí dlouho RTX 3080 ­/ Ti.
Jediné v čem se mi líbí ta RTX 4080 je to, že žere i trochu méně, než 3080, ale cena 35­-40K je trochu na hlavu.
Je to tam i relativně vysoký výkonostní rozdíl oproti 4080 vs 4090.
A jak všichni známe Nvidii první vydá tyhle čipy a pak mezi to narvou Ti verze, kde 4070 Ti může být skoro 4080 o 5­-7 000Kč levnější. To stejné v případě 4080Ti.
Další věc je ta, že ty karty sice už rozhejbou hry ve 4K i při 144Hz, jenže takový monitor ­/ televizi má doma asi málo kdo.
A poslední věc je asi to co se stalo se 4090, že začlo hořet napájení.
Takže ve finále drahá karta na 4K u které se neví, jestli funguje správně.
Většina lidi stejně bude čekat na 4070 12GB nebo 4060 do 25K, protože na většina lidí furt hraje na 1080P.....

Dát 30K jenom za grafickou kartu, kde za 2 roky výjde opět další generace mi přijde blaznivý a nechápu člověka, kterej je schopný vyhodit každé 2 roky více jak 33K za kartu.
4090 je pro lidi z úplně jinýho světa.
4080 pro normální smrtelníky, až bude pod 30K. Jenže vím, že před uvedením RTX 5000 se toho budou chtít zbavit a za cenu co stojí teď 4080 se bude moct dát koupit 4080 Ti nebo i možná ta 4090.
Odpovědět0  0
Aha, takže opět podělaná optimalizace, jen proto, že v tom zase nechají vrtat nvidii. Dneska při 1440P při maximálních detailech z toho já vytánu 120FPS a při nejnižších v 1080P to běží na 600FPS. Za vyleštěnou hru pomocí ray tracingu to pojede max na 60FPS a při nejnižších sotva na 240FPS. Ať jdou s tou technologii někam a soustředí se radši na DLSS a ještě lépe ho vychytat, aby v každé hře nefungovalo jinak, kde v jedné hře vám přidá fps a vylepší obraz a ve druhé vám obraz více rozmaže.
Nevím, jak u ostatních, ale já nehraju ani hry na ultra detaily, natož abych při hraní měl čas sledovat nebo hledat nějaký ray tracing stínování...
Nehledě na to, že ta hra strčí do kapsy po grafické stránce i dnešní hry.
Odpovědět0  0
Já vím co za tím stojí. Celá společnost NVIDIA a jejich výmysli.
10­-15 let tu máme jedno napájení a vše fungovalo. Teď vymyslí zase tohle a jsou s tím opět problémy, jelikož ty karty žerou jako prase.
Kdyby měla 4090 normální napájení ze zdroje bez redukce na 2x­-3x 8pin do spotřeby 370W, tak nejsou s ničím problémy, jenže to je to celé jejich předhánení se za každým 1MHz, aby náhodou konkurence nebyla lepší....
K čemu je potřeba taková redukce, když jsou z toho vývody na 2x­-3x 8 piny ? Pár centimetrů ušetřeného místa ne desce karty, ale jsou s tím zase jen problémy..
Opět další testovací produkt na trhu, jenže na to doplatíme jenom my. Lidi co vyhodí za kartu 55­-65 000 a za 14 dní jde na reklamaci.
Odpovědět2  2
Zajimavé a přitom se jedná jenom o operační systém. Já nevím, že dnes se vším musí být problémy při takových cenách čipů.
Odpovědět0  0
Neuvěřitelné. Určitě to hned využije každý uživatel ve svém domácím pc. Tyhle rekordy jsou pro mě o ničem. Zvedat napětí na doraz,dolívat dusík a čekat, jestli to vyrenderuje 1x stabilně cinebench. Já se vsadím, že rozdíl mezi 5 vs 5.5ghz v herním výkonu i v pracovním je dost zanedbatelný na úkor tepla a spotřeby.
Odpovědět2  0
Takže karta za 60 000Kč, kde po 14 dnech jde na reklamaci. Skvělý tah Nvidie. Do teď nechápu, proč se udělalo takové nové řešení napájení, když řadu let tady máme bez té redukce. Místo, aby vyřešili to, aby to tolik nežralo a dalo se to normálně provozovat, tak navýšíme každá mV, aby jsme měli co největší výkon, než konkurence. Když neodchází paměti, tak zase spálená redukce. U RTX 5090 bude co roztavení backplatu ?
Odpovědět3  1
Spíš by se mi osobně líbil tenhle čip s 10GB vram a gddr6x nebo mít takové specifikace na RTX 3070.
Kolik to přidá výkonu 7­-8% a ve hrách tak 5­-7FPS ?
3060 Ti ­- 3070 Ti jsou dobré čipy, ale podělali to celkově s rozložením té vram.
RTX 3060 mohla mít 10GB GDDR6 ­/ 3060 Ti 10 GB GDDR6x
RTX 3070 10GB GDDR6X ­/ 3070 Ti 12GB GDDR6X
RTX 3080 16GB GDDR6X
Odpovědět0  0
Tak se s tím můžou vyfotit :D
Odpovědět0  0
První se na ně vykašle přední partner EVGA a teď ještě proplácet pokutu. Huang dost přemýšlí dopředu o svých krocích.. Peníze to je vše co je zajímá..... Zatím co mi příjde AMD, že jde zákazníkům naproti, jak s cenou tak funkcemi, tak Nvidie spíš jde druhou stranou.
Okrást zákazníky co to jde, aby jsme měli na RTX 5000.
Odpovědět1  0
Za těch skoro 20 000Kč si to můžou strčit někam..
Odpovědět0  8
Mě by spíš zajímala logika lidi, kdo každý 2 rok je ochotnej vyhodit více a více peněz.
RTX 3090 při vydání stále 50 000Kč, když nebyly grafiky. Teď jsou za 33 000 v průměru.
A teď zase vyhazovat za RTX 4090 60 000+Kč RTX 6090 bude už aspoň za 100 000 Kč ne ?
Ceny nových karet a procesorů jsou bláznivej přestřel do nebes.
Dříve se poskládal do 25 000Kč slušnej počítač. Dnes i za 30 000Kč koupíš pomalu low end pc.
Odpovědět2  3
Pokud vám 20K příjde za kartu hodně, tak to žijete asi ještě v cenách před 10 lety.
Momentálně mám 3080 za 22K a monitor pořízený před 2 lety za 12K. Co jsem koukal na 4K monitory, tak ten co bych si koupil stojí okolo 17K.
To pro vás v tom případě nebude dostupná ani RTX 4060.
Odpovědět4  3
No i kdyby neměli stejný výkon, tak si myslím, že budou mít určitě schopné karty k hraní ve 4K za přijatelnější cenu s lepší spotřebou.
Pokud jejich vlajková karta RX 7900xt bude mít minimálně výkon RTX 4080 16GB do 30 000Kč do 280W, tak to bude pro lidi rozumnější upgrade.
Odpovědět4  2
Hodně překvapila tahle karta. 1x takový výkon za stejnou spotřebu. Bohůžel 60 000Kč dá za grafiku jen naprostý šílenec. 4090­-4080­-4070 budou karty přimárně k hraní ve 4K, kde ještě minimálně 80% hráčů beží stále na podělaném 1920x1080.
Na 1440P stačí 3070 ­/ 3080 ­- Ti.
Ale popravdě nárust výkonu je absurdní s nárustem ceny. To si člověk už říká jako co nás v budoucnu vůbec čeká. Karty za 70­-90 000Kč ? Procesory za 20­-40 000 Kč ?
Člověk, který k tomu občas sedne a bude chtít novej pc, tak od toho uteče, protože dávat za RTX 4060 20­-25K? Za 13600K 10K ? To radši koupí několik generací starší čipy.
Docela děsivá představa s vyhledem do budoucna, kde před 5 lety jste koupili za 35­-40K pomalu jeden z nejvýkonějších strojů a dnes tu jsou karty za 60K. A to nevyšla ještě 4090 Ti.
Odpovědět0  0
Úžasný!!! Hodnoty, který normální uživatel neuvidí minimálně ještě 15 let, ale po koupi a složení, pak je problém uchladit i 5GHz.
Nikdy jsem nepochopil k čemu lidem je tohle chvástání, že dosáhli o 10MHz většího přetaktování, než kolega vedle...
Takových desek a cpu co už muselo být zníčeno jen díky těmhle hračičkám.
Odpovědět2  1
Aneb, když 10 let na to funguje adblock a 4K fungovalo všude a teď si chtějí za vše nechat platit. Určitě do toho půjdu..... Ubožáci
Odpovědět5  0
No špatně to rozhodně nevypadá, ale to nevypadalo ani DLSS s příchodem RTX 2000 a jak to dopadlo.
Určitě ta technologie bude ze začátku trpět ghostingem nebo bude mít horší obraz, než při DLSS 2.0.
Ale určitě tě je opět trhák, kvůli kterému lidi koupí RTX 4000, kde do roka jim přidají DLSS 3 max na 10 her.
A vyladěná bude ta technologie před příchodem RTX 5000 ?
Odpovědět2  1
Mnohem výhodnější by bylo, kdyby bylo oznámený, že do těch desek narveš potom ještě další 2­-3 generace a ne, že za rok výjde stejná, potuněná 14 generace a bude to chtít opět novou desku.
Sice ta 13 má jít i do desek té 12 generace, ale nemáš prostě jistotu co bude zase za rok.
Dřív tak často procesory nevycházeli. Teď tu je nová řada snad každý rok.
Odpovědět4  0
Jo 13600K za 10 000 + deska za 7 000 + chladič 2,5­-3000, ale hlavně, že budeme mít výkon v multi renderu.
Jako s těma cenama se asi trochu bouchli do hlavy. A ať se mi to nesnaží někdo psát, že za výkon se hold platí....
Tohle je už spíš zlodějna.
Odpovědět6  1
170FPS v Cyberpunku jo ? To bych chtěl vidět. Vždyť ani 3090 + 12900K nezvládnou tu hru stabilně na 144FPS.
V tom DLSS 3.0 bude opět nějaké ALE! Podobně jako z počátku prezentovali DLSS a ve finále kvalita obrazu za nic nestála.
Odpovědět3  0
Mě jde jen o fps, který se za mě prostě ani nehnou.
6800xt má 16GB 256bit a 3080 10GB 320bit, ale výkonově jsou ty karty dost podobné.
4080 16GB vs 12GB budeou za mě stejné jako je dnes 3080 10gb vs 12gb. A co se týče těch cuda jader, tak to také nevím k čemu vám je v gamingu. Cuda jádra se využívají při práci ne při hraní. Pokud chcete zkoumat výkon porovnávají se stream procesory.
Odpovědět0  3
Ano, ale na herní rozdíl to bude mít cca 5­-7% rozdíl.
Odpovědět0  2
Ceny asi pouze zase pro lidi co nevědí co s penězi. Jako rozdíl 4GB paměti za přerážku 10 000Kč ? To jim trochu asi straší ve věži ne?
To si ty karty nekoupí ani normální smrtelník, protože tímhle stylem nebude stát 15 000Kč ani 4060.
Tady už chybí zase jenom krypto horečka.
Odpovědět0  1
Že by konečně hratelné hry ve 4K i za rozumný peníz ?
Odpovědět0  0
Naštěstí tu máme plno dalších slušných karet od jiných výrobců. Osobně jsem nikdy nepochopil, proč si lidé připlácí za ty jejich nenažrané FTW3 edice, kde je většinou dražší o zhruba 4­-5 000Kč, žravější o 50­-80W a to za cenu nějakých +100Mhz, které si může každý udělat sám doma i na nejlevnějším modelu pomocí přetaktování nebo přehrání biosu. A společnosti EVGA se ani nedivím, že odstupuje od Nvidie, která hledá výtěžek ze všeho hlavně pro sebe.
Odpovědět5  1
Strach z AMD a jejich turbu na 5.7 ?
Až na to, že Intel bude mít 1x takovou spotřebu s porovnání 7600x vs 13600K nebo si to aspoň myslím.
Odpovědět6  0
Pokud RTX 4090 ­/ Ti bude mít podobný nárust výkonu oproti RTX 4080, jako tomu bylo u RTX 3090 Ti ­/ 3090 ­/ 3080 TI vs RTX 3080, tak to nebude mít cenu zase kupovat. Nějak nepochopím už jen ten fakt, že lidi vyhodí za ty tom modely 35K+ a za 2 roky vyhodí ještě více.
Pro mě je limit max 350W dneska. 400+ už je masakr.
Odpovědět2  0
A rozdíl v ceně počítám minimálně 5­-7 000Kč :D
Jsem zvědavý jakou cenu na nás zase vytasí.
Ale ze zkušenosti vím, že nemá cenu nikam pospíchat.
První výjde RTX 4090 ­/ 4080 ­/ 4070 ­/ 4060 a pak mezi to narvou zase TI verze.
Odpovědět1  1
90°C při 100% se specifikací 16c­/32T ve finále ve hrách a provozu pc to bude max 70°C
Odpovědět0  0
Vypadají hodně slibně ty procesory. Otázka je, ale jestli to stojí za výměnu ... Protože taková 8700K­/5600x dokáže podat furt dostačující výkon.
A než, by nestačili tyhle cpu, tak by tu zase byly jiné generace. Docela bych rád už viděl nějakou hru, která by graficky odpovídala a výkon dnešních čipů, protože na to jak se zvednul výkon gpu a cpu za poslední 3­-4 roky, tak mi příjde, že hry se nikam neposunuli. Kde máme například dynamické počasí ve hrách. Destrukci prostředí, particle efekty ? Jen Ray Tracing a nazdar.
Vím, že cpu neslouží jenom na hraní, ale beru to z pohledu hráče, ale zase nevím, kterému tvůrci by nestačili ryzeny, které už vyšli.
Jestli opravdu už nebude lepší přejít z počítáčů na ty konzole a tyhle věčné kolotoče ukončit.
Představa, že bych si tu koupil RTX 4080 + Ryzen 7700x, kde bych měl top komp a za 3 roky, přechod na výkonější kartu a zase tady řešit, jestli ten cpu stačí.

Pro mě bude asi nejlepší volba zůstat na tom co mám nebo jít radši do 4K rozlišení.
Odpovědět1  2
Nevěřím, že tenhle model bude mít spotřeba pod 380W, když chtějí razantně zvýšit výkon čipů a dodat rychlější paměti s větší kapacitou.
Tipoval bych to, tak že:
4060 bude mít 10GB 270W výkon 3070 ti ­/ 3080
4070 12GB 320­-340W výkon 3090
4080 16GB 360­-400W výkon 2x 3070­/3080
4090 24GB 450­-500W výkon o 10% vyšší, než 4080 s 20% příplatkem.
Odpovědět0  2
To chápu, že tímhle stylem jede už docela dlouhou dobu, ale přesně to je důvod, proč bych se rozhodl zkusit AMD.
Kde 7800x bude výkonově podobná 13700K nebo o chlup horší a pak do toho bude člověk moct osadit snad i 8800x.
Odpovědět0  0
400W při 1,5V při takovém množštví jader není zase, tak hrozné.
1­) Tohle nebude cpu pro normální lidi, který chtěji pc do střední třídy.
2­) Cpu je vyhnaný na krev.
3­) Při taktech 4.6­-4.8Ghz bude žrát max 200­-230W v plné zátěži, kde při hraní her bude cca okolo třeba 80­-130W.
4­) Nějak nechápu smysl v dnešní době taktovat už takto silné cpu. Poslední cpu, který bych si já přetaktoval by byla 8700K.

Myslím si, že většina uživatelů stejně bude hledět po i5­-13600K za 7­-10 000, než o takovém cpu za 17­-20 000, kde se mluví, že ta i5 má mít výkon 12900K. A tohle je přesně další z důvodu, který mě nenutí stále přecházet z 9900K. Člověk tady vyhodí ranec za pořádnou desku s kvalitní napájecí kaskádou narve do toho nejsilnější cpu a za rok výjde o 1­/2 levnější cpu.
Pak výjde zase 14900K ­/ 15900K a furt dokolečka.

Nechápu Intel, že nám neumožní aspoň využívat jednu patici na 2 generace.
Odpovědět5  1
Bodejď by o ně lidi měli zájem, když teprve dnes jsou ceny na rozumné hranici, než před 2 lety, kdy Nvidie na nás z vysoka kašlala a putovali kamiony na těžbu.
Bohůžel já jsem jeden z těch co si pořidili RTX 3080 za 22K z toho důvodu, že sama Nvidia neví, kdy vydá RTX 4000.
Byly tu zprávy, že do konce roka, pak že se to odkládá, pak že RTX 4070 má mít 10GB ve finále to bude 12GB a na úplný závěr Nvidia nechce přinést novou generaci, když jsou přeplněné sklady.

Když lidi chtěli karty, tak nebyly nebo za 2x dražší cenu, takže ten meziroční 33% propad měli předvídat už v roce 2020.
Odpovědět7  0
Ale teď už je přeci zase s výkonem úplně jinde. Přeci je rychlejší, než AMD, tak kdo by kupoval horší věc. A lidé si přeci na výkon klidně počkají. :D
Je to, jak píšete. Nevím co jim tak trvalo od 8­-9 generace dodat nám těch 15­-20% co má teď 12 generace. A nebýt AMD nikdy by takové cpu Intel nevytvořil. Do teď by jsme tu měli max 8C­/16T. A 10900K s 10 jádry by se nám snažil prodat za 15­-20 000Kč.

Je sice hezké vidět, jak se předhání, ale s pohledu hráče bych chtěl aspoň už vidět, nějaký rozumné grafické enginy, kde se výkon těch cpu projeví a ne ty neoptimalizované shity co nám vývojáři občas naservírují za 1500Kč a více.

Pak to chodí špatně a hned lidi začnou kupovat nové procesory, ale už nějak nejsou schopní trochu popřemýšlet nad tím, jak běžel třeba Medal of Honor Warfighter a jakou to má i dnes grafiku s porovnáním se slavnou dojnou značkou jménem Call of Duty nebo Battlefield.
V dnešních hrách, kvůli rukoum technika u vývojářské společnosti nejsme kolikrát ani s 10700 schopni dostat stabilně 144 snímků, kde se ukáže, že daný díl je technicky horší, než díl před ním.

A co se týče práce na pc, tak tam zase nevím, kdo by přemýšlel o Intelu a těch jejich výmyslej s těmi P+E jádry. To bych sáhnul radši po 12­/16 jádrovém Ryzenu.
Odpovědět5  1
Přesně moje řeč. Jak s programy, tak optimalizací her.
Všechno dělá jen to individuum mezi klávesnicí a židlí, kde použije kód na novější cpu a pro maximálně 3 roky staré a pak to chodí, jak to chodí.
Nevím, jak u softwaru, ale dost mě tohle štve u těch her. Battlefield 2042, kterej mě sice nebaví, ale je to nejhůř optimalizovaná hra, tak na to člověk potřebuje 12700x ­/ 5800x, aby to běželo aspoň stabilně na 144FPS. Ale 8700K s tím už má problém. Je to sice 6 jádro, ale i tak.
Já mám 9900K, která je přeznačená 10700K a která je ve hrách stejně výkoná jako 5800x a 12700K je jen 9900K s E jádrama navíc, ale už to prostě chodí hůř.
Jenomže tohle byl a bude stejný kolotoč. Člověk si postaví topku pc a za 3 roky se to už trochu zapotí a za 4 roky už můžete zase přemýšlet, jestli se nevyplatí koupit nový procesor, ale hry se nikam neposunou. Stagnujou. Nikde žádný rozdíl, kterej by potřeboval tak značce silná cpu.
V Battlefieldu 20 minut běžíš ke kontrolnímu bodu a ve Warzone otevíráš bedničky...

Pamatuju si, jak vyšel Crysis 3, kde to člověk zapnul a bylo jedno na jaký detaily to člověk hrál, protože byl rád, že to spustil, kde i na nízký detaily ses kochal těmi detaily. A po 10 letech hry nevypadají zdaleka ani tak dobře, ale potřebují ke stejným fps 2x silnější cpu...

Ono jestli nebude lepší se už časem vykašlat na celý slavný PC gaming a přejít na konzoli, kde ti to dá minimálně 60­-100FPS na 4K nebo, jak tam je ta kompatibilita. 1x za 5­-7 let se vymění konzole, která přinese dost vylepšenou grafiku a framerate, ale člověk se nemusí starat o nějaké fps. Zapne hru a hraje.
Odpovědět1  0
Při práci ano, ale zase se mi nechce věřit, že třeba i takový 3900x by dnes na práci nestačil. A další věc je ta, že dnes snad 90% programu umí pracovat skrze cuda jádra.
Odpovědět0  0
No já jsem osobně zvědavej o kolik rychlejší to bude oproti té 5800x, jak už jsem tu psal jednou nejsem zastánce ani jedné strany, ale na to, že to je v podstatě nová architektura, tak už teď to bude žrát jak prase. Ano je to po vysokým OC, ale pokud při 1,5V to má okolo 240W, tak nějakých 1,3V bude zhruba při 160­-180W. A to je teprve 13700K při 240W co potom 13900K.
Většině smrtelníkům jde o to co to dělá ve hrách to přetaktování. Z osobní zkušenosti vím, že moc toho ty frekvence nad 4.7Ghz nedělají.

Nějak těmhle procesorům nemůžu přijít na chuť na ten výtvor P+E jader. Bohatě by stačilo, kdyby udělali následný konfigurace: i5­- 10C­/20T, i7 ­- 12C­/24T, i9­-16C­/32T a soustředili se na IPC, než dohánět ten výkon těmi jádry.

A co jsem si našel nějaký srovnání, tak ta 12700K bez E jader není o moc rychlejší, než moje 9900K.
Odpovědět1  1
Takový hry v životě nevýjdou. Unreal Engine 5 je jen engine na ukázky a dema. Si vem, jak vypadal Unreal Engine 3+4 a kdy jsme dostali hru, která naplno využila sílu a výhody té průlomové grafiky ?
Ale je to furt dokola stejné ty hry. Buď je to náročné jak prase, nebo špatně optimalizované a nebo průměrné, ale zase to chodí dobře.
Ale nevěřím tomu, že někdy dostaneme hru takovou, jako je prezentovali to demo v těch skalách.
A co se týče toho Matrixu na Unreal Enginu 5, tak to taky není žádný zázrak. Cutscény uzamčené na 30FPS, kde si dovolejí zvýšit detaily, ale pak ten svět nevypadal nic moc.
Chtěl bych zase zažít to co předvedl Crytek s Crysis 3, kde ta hra nešla na 60FPS při ultra ještě další dvě generace a hned v prvních minutách si člověk řekl ,,sakra tohle jsou střední detaily? ´´´´
Odpovědět1  3
Mám to podobně. Efekty jen na oko, kde se musíte zastavit ve hře, aby jste vůbec viděli ty odrazy a stíny, jenže za cenu klidně i 80­-100FPS, kde oproti rtx off to vypadá dost podobně.
Zlatej Doom Eternal. Sice to není žádný next gen, ale graficky to vypadá slušně a hlavně to v pohodě běží. I s tím podělaným RTX za cenu 50­-60FPS dolů.
Odpovědět0  1
Právě náročnější, jenže kde je vidět ta náročnost ? Ten pokrok? Náročný jen na způsob RTX On.
Už, aby vyšel Crysis 4 a vytvořil zase pořádnou next­-gen hru.
Odpovědět1  0
Tak já jsem hlavně zvědavej, jestli už rozumně bude RTX 4080 dávat hry ve 4K při 144FPS, protože 3080­/3090 nemá za mě furt výkon, kterej by mě stačil.
Zkoušel jsem Crysis 3 Remastered, kde ve 1440P při ultra mi hra běžela na stejný FPS, jako ve 4K při nízkých bez DLSS a Ray Tracingu.
Nebo bych aspoň už rád viděl nějakou pořádnou hru s next gen grafikou a ne to co dostáváme teď.
Odpovědět0  2
Tak já jsem také roky na Intelu. A ta 12 generace je docela dobrá, ale od 8 generace je tohle možná něco na co by mělo smysl udělat upgrade s tím, že nevíte, jak budou vypadat další generace. Intel si myslím vyždíme zase z těch 10nm maximum a za 3 roky tu budeme mít 10nm 300W žrouty s 50 tipy jader. Nejsem zastánce ani jedné firmy. Měl jsem sice před lety první generaci AMD, která zklamala a ještě se mi tu pc choval divně, ale v budoucnu bych ho asi zkusil. Otázka je kdy, protože mám momentálně 9900K na 1440P a nějak se mi nechce měnit celý socket za těch pár % výkonu navíc. Mě by docela zajímal srovnávací výkon 8c­/16t třeba 12700K vs 5700x.
Uvidíme s čím příjde AMD, ale myslím si, že dátáhne výkon na 13 generace.
Nejsem zastánce Intelu ani AMD, ale je sranda to furt dokolečka sledovat co je v čem jak lepší. Škoda jen, že vývojaři her nejsou schopný pořádně optimalizovat svoje tituly, pak každej brečí, jak cpu omezuje výkon.
Odpovědět0  0
Zajímavé tady číst zase názory, jak za nic AMD nestojí. Intel představí 12 generaci a AMD dožene 5800x3D výkon 12700K. Intelu se časem ty různá jádra vymstí zase na spotřebě.
A věřím tomu, že AMD nabídne zákazníkům stejný výkon jako Intel. Nebo to bude jako dříve, Intel si nasadí cenu za 13900K 22 000Kč ­/ 13700K 16 000Kč, kde tu pak Ryzen 7800X za 10­-12 000 udělá stejnou službu.
Odpovědět1  1
Docela by mě zajímalo k čemu to ? Dříve tu systému byly x let. Teď tahle zpráva. V čem to bude jinačí zase akorát naštvou spoustu lidí a to ani neuvedli minimální podporu cpu. Windows 12, který pojedou neustále na kódu Windows 10. Oproti Windows 11 já osobně nic nemám je to jenom takový reskin Windows 10, ale i to jak strašili tou podporou TPM 2.0.... OS má být funkční a ne, že začnou lidem házet klacky pod nohy.
Nikdo nikoho zatím nenutí přecházet a minimálně do roku 2025 tu asi podpora ještě bude pro Win 11, ale i tak. Beru to z pohledu lidí, kteří mají pc primárně třeba na úpravu fotek nebo internet. K čemu těmhle lidem budou tyhle blbosti co Microsoft přináší. Stejně si to každej normální uživatel přízpůsobí nejlépe tak, jak to měl v minulém operačním systému. OS by měl přicházet 1x za 7­-8 let a ne každé 3 roky.
Odpovědět0  0
i5 a 173W ? i9 bude aspoň 300W už ne ? Jestli si Intel myslí, že spotřeba je ireleventní na úkor spotřeby, tak to je vedle.
Odpovědět5  1
Aha, takže Intel si zase nejspíš jede ve svých kolejích. Vysoké frekvence, kde ve hrách bude rozdíl 10% při 3x­-4x vyšší spotřebě.
On se dá každej cpu od Intelu rozumně nastavit. To jen podobné články a autoři z toho ždímou maximum, ale i tak je to nová generace a při těch 5.5Ghz při všech těch tipech jader co to má mít bych čekal max 200W v plné zátěži
Moc dobře si vzpomínám, jak vycházela i9­-9900K a autor tu psal o tom, jaký je to přímotop a nenažraný cpu. Teď mi to příjde jak prd na to, že to je 14nm+++++++
Odpovědět0  2
Využívám Defender, jak pod Win 10, tak 11 po dobu 5 let a nikdy žádný problém.
Momentálně mi 9900k běží na 3­-5% využití s otevřeným prohlížečem.
Odpovědět0  0