Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
Komentáře od pidalin
Na tyhle úniky nevěřim, to dělaj schválně.
Odpovědět1  0
Já furt doufam že to Intel nevzdá a další generace už bude lepší, ten třetí hráč ma trhu by dost pomohl.
Odpovědět2  0
Já mam ještě starší Ryzen 5800X3D a teď jsem hrál originál Stalkera Shadow of Chernobyl, což byla extrémně padavá a nestabilní hra a teď za 24h hraní možná 2 nebo 3 pády, docela jsem z toho v šoku, dřív to padalo třeba každejch 5 minut, ale hádam že to je asi těma tehdejšíma warezama. :­-)
Odpovědět0  0
Tomu se mi skoro nechce věřit že by tohle Intel fakt vypustil, ale dneska je možný všechno.
Odpovědět0  0
za pár let bude podle mě stejně nelegální si něco takového koupit pokud nejste velká firma, veškerý ukládání obsahu offline bude nelegální
Odpovědět1  4
Furt řešej nějaký AI nesmysly, koho to zajímá? Každej chce hlavně co nejvyšší hrubej výkon s co nejlepší efektivitou.
Odpovědět0  0
Já už jsem taky dávno veškerý testování hardwaru přesunul na extra místo s jinym monitorem, takže v hlavnim PC už taky jenom display port.
Odpovědět0  0
To řikaj vždycky jakej bude nárůst v single thread a pak to má výkon jako přetaktovaná 10 let stará i5. :­-)
Odpovědět0  6
Zatim se youtube asi tolik nesnaží, jsou weby kde už blokátory dávno nefungujou a vývojáři řeklamy vyhrávaj.
Odpovědět0  0
Jako celkově jít na net bez blokátoru je neskutečnej kulturní šok, většinou to vydržim tak 5 vteřin a hned ho zase zapnu abych viděl to co si chci přečíst.
Odpovědět8  1
Tak kdyby v jednom 5minutovym videu nebylo reklam jak ve filmu na nově, tak bych tu reklamu neblokoval že jo, kdo chce moc, ten nemá nic.
Odpovědět10  0
Nechápu co máte všichni s tim Applem, mam PC protože si to můžu postavit podle sebe a je to upgradovatelný. To jste tady vážně všichni tak nechápavý retardi nebo co? Co nechápete na tom když řeknu že ATX standard je zastaralej? Děláte ze mě nějakou iOvci nebo co, co to sakra všichni melete? Nechápu. Když se v 90. letech přecházelo z AT na ATX, tak jste ze zastánů ATX taky dělali iOvce co jsou proti kompatibilitě? Na co je ti že do dnešní desky pasuje grafika z roku 2004? Ovladače pro moderní OS to stejně nemá.
PCI­-e sloty byly vyvinutý v době kdy ten slot grafika ani nepřesahovala, dneska musíš pod grafiku dávat dodatečnou nohu aby to ze slotu nevypadávalo a mělo to dobrej kontakt, fakt ti ten standard ATX přijde pořád v pořádku? Asi jo hádam. A zrušení klasickejch PCI slotů ti nevadí? To zhoršilo kompatibilitu mnohem víc než to co navrhuju já a je to něco co mě u moderních desek docela štve, že nemůžu třeba použít svojí 10 let starou zvukovku která je pořád dobrá.
BTW, kdy jsi naposled měl v ruce metr? Nějak ti to nevychází, Máchale.
Odpovědět0  0
Co bych jako dělal s Macem? Jenom řikam že ATX standard byl vyvynutej v době kdy měl CPU TDP 10W a žádná grafika nepotřebovala přídavný napájení. Ten standard přesluhuje už tak 20 let.
Odpovědět0  0
"Změnu velmi poznáte leda výměnou hdd­-ssd sata­-ssd nvme­" ani tam už žádnou změnu rychlosti nepoznáte, jestli máte normální sata SSD nebo nvme je úplně jedno.
Odpovědět0  0
No tak se na to podíváme, highend grafika v roce 2008 ­- do 10 000 Kč, plat dejme tomu 15 čistýho, dneska plat 30 čistýho a highend grafika stojí 50. To pořád nevychází. Jasně, díky zpomalování vývoje ten hardware může vydržet dýl když člověk udělá nějaký ústupky, ale jde o to že dřív prostě ta nová generace přinášela třeba dvojnásobnej výkon za stejnou cenu, jak už jsem psal, když koupim grafiku za stejnou cenu jako před 5 lety, tak bude mít jenom nepatrně vyšší výkon, spíš skoro stejnej a to je fakt tragédie. Od roku cca 2016 každá moje nová grafika stojí 2x víc než ta předchozí a tenhle trend musí už přestat, protože už to dál násobit nejde, jako 30+ za grafiku fakt nedam, i když bych mohl, ale prostě odmítam to za to zaplatit.
Ty sem taháš devadesátky, ale to je PC pravěk, přece si musíš pamatovat kam se to vyvíjelo a kam se to dostalo tak mezi lety 2006­-2010, hardware byl tak levnej že lidi použitý komponenty házeli z okna a ani se to nesnažili prodat, dneska se vesele kšeftuje s 5­-7 let starejma grafikama a lidi za to chtěj tisíce a někdo to dokonce kupuje, to je fakt komedie.
Odpovědět0  0
To je ale jenom část pravdy, to bylo v době toho brutálního vývoje mezi lety 99 ­- 2004, pak se to na dlouhý roky ustálilo na DX9 a i první DX9 hry furt měli kompatibilitu s DX8 grafikama ­(FarCry a podobně­). DX10 většina lidí odignorovala a až tak do roku 2012 jelo skoro všechno pod DX9.
Myslim že současnej hardware je superiorní, problém jsou zprasený hry, kdy na stejnou grafiku jako by měl první FarCry bys dneska potřeboval RTX 4080 úplně bezdůvodně. Vem si na čem tenkrát jel Crysis, já to dohrál na Celeronu D a GeForce 7600GT do AGP slotu a jak ta hra furt vypadá po víc než 15 letech, je to fakt komedie kam se to vyvinulo. Od roku cca 2014 stejná grafika, ale nároky trojnásobný, nebejt funkcí jako DLSS tak si nikdo nic pořádně nezahraje. A je rok 2024, nebudu hrát v rozpixelovanym full hd jak před 15 lety. :­-D
Odpovědět0  1
Současnej systém s klasickejma slotama už doslohuju, i kvůli obludnejm CPU chladičům, je potřeba ty ramky dát na druhou stranu desky a ještě víc tak zkrátit cestu k CPU a zlepšit přístupnost. Případně dávat nějaký pidi ramky kolem socketu co by se chladily stejnym chladičem jako CPU. Současnej ATX standard je už zombie a nechápu proč to udržovat při životě, někdo by měl rozhodnout že od nějaký generace se to už hodí do koše a pojede se na novo, protože je to už fakt potřeba. Mam dost starýho hardwaru, nepotřebuju kompatibilitu se 20 let starejma skříněma a podobně.
Odpovědět0  4
Jenomže jde o to že nejvyšší highend před 10 lety stál tak 25 tisíc, dneska je 25 mainstream, což je fakt šílený. S rostoucím výkonem roste i cena. Mam RTX 2070 super kterou jsem kupoval v roce 2019 za 16 000 a už to jsem si řikal jestli jsem se nezbláznil s tak drahou grafikou, když budu chtít po 5 letech upgrade abych měl dvojnásobnej výkon, tak potřebuju grafiku za 28 tisíc.
Odpovědět0  1
A jakej má smysl takovej život? Žádná dovolená, žádný zážitky, jenom práce. Člověk pak umírá asi s divnym pocitem že nic nedokázal, nic nezažil, nikde nebyl...
Odpovědět3  1
Je to šílený, když jsem si postavil první pořádnej komp kterej rozjel tehdejší hry na ultra, tak jsem v tom měl GeForce 9800GTX tehdy za 5500 Kč a jako jo, byly horší platy, ale ty prachy jsem si vidělal za pár dní na brigádě při střední škole. Zkuste si dneska vydělat na RTX 4080 z brigády. :­-­) Jasně, na full HD stačí nějakej šrot, jenomže full HD je standard už 15 let a je to prostě strašnej bizár že se v tom rozlišení furt hraje, 4K mělo bejt standard už tak 5 let. Před 20 lety když vyšla nová grafika, tak za stejnou cenu jako minulá generace měla třeba dvoj nebo trojnásobnej výkon, dneska děláš upgrade po pěti letech, ta grafika stojí +50% a má +50% vyšší výkon, to je totální výsměch, každá moje nová grafika musí stát 2x víc než ta předchozí aby to byl upgrade a začíná se to dostávat do bodu kdy už prostě nejsem ochotnej tuhle hru hrát protože zákazník tohle nemůže vyhrát.
Odpovědět0  1
I tim přesně mluvim, podobnou desku s čipovkou P35 jsem taky měl od MSI a mam ještě několik měděnejch Zalmanů na socket 775 a 478. :­-)
Odpovědět1  0
Tak dřív to smysl dávalo, protože ten HW byl pěknej ­- měděný chladiče, červený základní desky a spousta jinejch možností. Dneska je to všechno sterilní nuda, ten hardware už dávno neni pěknej, všechno zabalený do černýho plastu.
Odpovědět1  1
Co na to Disney kterej na PC povoluje max 720p? To se jim nebude líbit, ale třeba je to konečně přinutí tohle rozhodnutí změnit, už by bylo na čase.
Odpovědět0  0
Chtělo by to spíš vymyslet jak vynitut DLSS ve hrách z let cca 2016­-2019 kdy to ještě hry neuměly, ale zároveň ve 4K už potřebujou docela dost výkonu, tohle pro DX8 a DX9 mě až tak neláká, ale uvidíme jestli to k něčemu bude.
Odpovědět3  0
Jo, to by se hodilo na hraní DOS her v dosboxu díky celočíselnýmu škálování obrazu, což jim trvalo 20 let než to konečně přidali do ovladačů. :­-­) V 8K ­(nebo i víc do budoucna­) je budoucnost retro gamingu, protože sehnat CRT v dobrym stavu je už problém, mohli by výrobci monitorů na to myslet a dát ty možnosti škálování přímo do nastavení monitoru aby to člověk mohl rovnou píchnout ke starýmu kompu, to by každej dost ocenil, nechápu proč to tam neni.
Odpovědět1  0
Tak aby to nebyl stejnej průser jako Witcher 3 ­"next gen­" update kterej vypadá místy hůř než původní hra na ultra, ale máte 1­/4 fps a DLSS je tam implementovaný tak špatně že je s tim obraz dost máznutej a vyostřování to taky nespraví a ještě hra laguje při běhu a žádný SSD ani silnější CPU vám nepomůžou.
Odpovědět2  6
Já chci 34­-37­" s normálnim poměrem 16:9, případně něco co by mělo na vejšku stejně jako nromální 32­" ale bylo to jenom širší. Jinak jsem rád že konečně někdo tyhle technologie přináší do PC monitorů, protože to vypadá že většina firem PCčkáře naprosto ignoruje, u televizí už je skoro standard direct led podsvícení, lokální stmívání a další vychytávky, ale na PC furt nic, jedinej menší pokrok je víc Hz.
Odpovědět0  0
Ať tak nebo tak, je potřeba to konečně nasadit do praxe, protože jinak se to vylepšovat nezačne, jsem si jistej že první generace ARM desktop procesorů s pochybnou emulací bude podobnej problém jako Intel grafiky, ale po 2 letech ladění ovladačů maj dneska naopak spoustu výhod oproti konkurenci a další generace slibuje docela ambiciózní věci, tak uvidíme. Jako byla by to paráda kdyby to fakt vyšlo a to ARM na desktopu fungovalo i bez toho abysme úplně přišli o kompatibilitu s x86 softem.
Odpovědět0  0
Včera jsem četl něco o tom že na těch ARM proceorech pro desktop už má údajně fungovat nějaká emulace x86 a x64 a prej s docela malym dopadem na výkon, pokud by to tak bylo, tak to by byla paráda, ale taky jsem poměrně dost skeptickej, protože kdyby to bylo tak jednoduchý, tak už to máme dávno a sám Intel nebo AMD by nám to dávno předhodili.
Odpovědět0  0
Toho bych se trochu bál, většinou ty remaky zničej to co bylo na hře zábavný a narvou tam moderní prvky který to zničej.
Odpovědět0  0
Jo no, trojka mě hrozně rozčilovala, totálně nesnášim ve hrách ty haluz pasáže kdy máš nějaký vize a musíš hrát tyhle stupidný zhulený scény kdy víš že to neni realita. Navíc ta hra totálně přepálila ten quest a crafting systém, jako FPS hra kde musíš lovit abys mohl mít kůže a vyrobit peněženku abys mohl mít peníze abys mohl kupovat zbraně....to už bylo fakt moc.
Na druhou stranu ale DLC Red Dragon byla ta správná odlehčená cyberpunková sranda plná záměrnejch klišé a humoru.

Jednička je pro mě ale legenda, je to vrchol vývoje FPS žánru, pak už přily jenom questy a další bordel co do FPS her podle mě nepatří.

Dvojka mohla bejt skvělá hra, ale bohužel už tam bylo to ježdění pro questy furt semtam a respawn celejch táborů nepřátel....celkově otravnej gameplay, ale některý věci se mi tam fakt líbili, jako třeba zabalování trávy a celkově gunplay byl skvělej, taky to mělo hodně dobrej multiplayer.
Odpovědět0  0
FC1 je pro mě jedna z těch her co přinesla revoluci a definovala celou generaci, považuju to za vrchol vývoje klasickejch FPS her ­(těch před příchodem questů a podobně­).
Ovládání už totálně moderní, gun play zábavnej, navíc možnost měnit módy střelby a naklánět se za rohy, což je víc než umí většina dnešních FPS her.
Většina haterů to hejtuje jenom protože byla neschopná se dostat přes pozdější části hry s mutantama a uber soldierama.
Ten gameplay s možností používat vozidla a lodě je totálně zábavnej i dneska, vůbec to nezestárlo a když třeba testuju nějakej retro hardware, tak se často nachytam u toho že místo toho aby jenom otestoval jak to jede, tak třeba odehraju celej první level. :­-D
Odpovědět1  0
Proč těch modelů proboha dělaj tolik? Dyť to je úplně šílený.
Odpovědět2  3
Ale dyť to přece jde vyřešit úplně lehce, stačí dát kolem čipu ohradu která zabrání vyštípnutí křemíku, dělalo se to tak kdysi u některejch grafik a fungovalo to. Pak samozřejmě bude muset existovat normal na velikost a tvar základny chladiče aby to pokrylo případně všechny čipy­/jádra­/čiplety co tam můžou bejt, ale to všechno jde řešit. Prodávat dnešní procesory s těma IHS je nesmysl, dávalo to smysl v době kdy bylo malý jádro a na to se dával většinou primitivní hliníkovej chladič, pak to IHS pomohlo teplo rozvést na větší plochu chladiče, dneska máme ale heatpipe a každej chladič má měděnou základnu, IHS je přežitek.
Odpovědět0  0
Mě spíš fascinuje proč tam to IHS teda dávaj když věděj je to k ničemu. Ochrana čipu proti prasknutí se dá řešit i jenom ohradou kolem čipu a nemusí to přímo čip překrejvat. To aby chladič měl dobrej kontakt s čipem­/čipama by se ošéfovalo prostě nějakou normou na ty chladiče ­(velikost základny a její rovnost­) pro ten socket a bylo by to, každej chladič na ten socket by to musel mít kompatibilní.
Teď jsem třeba delidoval starší Ryzen 3800X a i u pájenýho procesoru delid dost pomůže a nemusíte ani IHS odstraňovat, stačí zmenšit mezeru mezi IHS a čipem, dát tekutej kov a teploty jsou lepší než předtim, jak je to možný? Intel i AMD maj v tomhle ještě fakt hodně co zlepšovat.
Odpovědět1  0
asi tak no, nemožnost záchrany dat jednoduchym vyndánim disku je něco co považuju za samozřejmost, bohužel i na PC už je to problém, protože Win 10 i 11 už se dost bráněj přístupu k datům z jinýho stroje
Odpovědět1  1
notebooky jsou nesmysl
Odpovědět1  7
Kdyby FSR podporovala fakt každá hra, tak neni důvod kupovat nvidii, bohužel je furt spousta her co má jenom DLSS.
Odpovědět0  0
Jo, asi jako novej software na novym CNC ­"umí­" optimalizovat programy.
Co si nenapíšeš ručně sám, to nebude optimalizovaný a efektivní a nikdy to nebude dělat to co má jak nejlíp to jde.
Odpovědět3  0
No jo, ale k čemu mi to je když neumí DLSS a frame generation. Vim že AMD je po HW stránce a v hrubym výkonu často lepší, bohužel korporátní války to zabíjej, taky mě ničej jejich ovladače, ale už jsem četl že podobnou zpraseninu nvidia plánuje taky ­(už nepůjde neinstalovat balast geforce experience­), takže pak jeden důvod pro nvidii padá.
Odpovědět0  11
Podle mě to spíš dopadne tak že grafika bude mít vlastní zdroj a bude se do ní strkat rovnou kabel ze zásuvky, možná by to tak i bylo lepší, člověk bude mít nějakej zdroj v PC na to ostatní a nebude to muset řešit. :­-)
Odpovědět1  0
Nad tim už jsem taky přemejšlel, výrobci HW za to bohužel nemůžou, jenom reagujou na rostoucí poptávku po výkonu způsobenou čimdál zprasenějším softem a blbě optimalizovanejma hrama. Měli bysme hlavně tlačit na herní vývojáře a vývojáře enginů aby s tim něco udělali, protože vydávat hry co chtěj 32GB ram a zabíraj 250GB místa a přitom to vypadá stejně jako 10 let stará hra, to fakt neni normální.
Nebejt nvidie a AMD s technologiema jako DLSS a FSR, tak už jsme dávno v háji, výrobci HW a vývojáři ovldačů to zase zachraˇňujou, jako už mnohokrát v historii.
Odpovědět1  0
Ono je to tak nějak poznat podle designu toho konektoru, pokud by nebyl zpětně kompatibilní, tak by to byl docela fail.
Odpovědět0  0
Co přesně si natíram na růžovo? Já tady nemluvim o době kdy jsi měl Win 98 a cvakací plotnovej disk s rychlostí 5 MB­/s, já mluvim spíš o konci Win XP éry, pořítače tenkrát byly pocitově mnohem rychlejší než dneska, nulová odezva na klikání a tak, navíc už nastupovaly SSD disky a XP na SSD, to už fakt lítá jak blesk, ale i sedmička byla dost rychlá na adekvátnim HW.
Co se týče evoluce HW, tak ta šla mnohem rychlejc, za stejnou cenu jsi fakt za 2 roky dostal kartu co měla třeba 2­-3x vyšší výkon a hlavně hry byly relativně dobře optimalizovná a ty nároky byly ospravedlnitelný, jasně, na HW z tý doby to jelo mizerně, ale stačilo fakt rok, dva počkat a už sis to zahrál uplně uber hyper mega na max, až na výjimky samozřejmě, některý hry jely pořádně až na Core 2 Duo, ale to jsme furt v řádu jednotek let kdy v roce 2002 třeba vyšla mafia a za 4 roky už jsi mohl mít core 2 duo a výkon někde úplně jinde. Dneska? Když máš 10 let starej CPU kterej byl v tý době nabušenej, tak musíš reálně řešit jestli vubec pro tebe má upgrade smysl, tak špatný to dneska je. V roce 2020 jsem kupoval Ryzen 3800X za 10 tisíc, co za tu cenu dostanu dneska? +30% Výkonu? Možná +50 v multithread výkonu, ale to fakt neni upgrade po 4 letech, to je jenom drobná evoluce za kterou se mi platit fakt už prostě nechce po těch 20 letech co se v tom hrabu, prostě to nemá smysl, přestalo mě to bavit, tenhle závod nejde vyhrát a po nějaký době to dojde všem, pokud je někomu 20, tak to třeba ještě nechápe, pokud je ti 30+, tak už tenhle závod nejspíš nechceš hrát protože víš že nejde nejenomže vyhrát, ale nejde ani dohrát, nemůžeš prostě ani dojet do cíle, žádnej cíl neni, každá nová grafika stojí víc než ta předešlá aby to byl nějakej upgrade a pro co? Abys zjistil že nový hry ti zase jedou kolem 60 FPS? Fakt mě to už nebaví.
A staráho HW tady mam hromady, takže si nic malovat nemusim, já si s tim hraju každej den, vim že ty hry v tý době jely mizerně a standard byl třeba 25 FPS, ale jak řikam, stačilo 2 roky počkat a byl jsi úplně někde jinde a ty hry se za tu dobu graficky posunuly neskutečně, dneska nová hra chce 2x lepší HW než pár let stará hra, ale přitom vypadá úplně stejně a prostě se musíš ptát jakej to má vlatně všechno smysl.
Pokud se v tom někdo hrabe ještě dýl, třeba už od 90. let, tak k tomuhle prozření musel dojít už mnohem dřív. Jeden čas to vypadalo docela dobře, mezi lety cca 2015­-2020 to vypadalo že nějak trochu poroste výkon HW, ale nároky her stagnovaly a moc nerostly, takže s upgradem ti reálně rostlo FPS a všechno bylo růžový, ale to teď skončilo a nároky se zase skokově zvedly a úplně bezdůvodně.
Odpovědět1  0
O tom přesně mluvim, ale lidi tady nevěděj ani co je ohmův zákon. Případně zvednout to napětí na 24V časem s novejma zdrojema a bude po problému, stejně se tomu do budoucna nevyhneme, nemůžeme furt dávat silnější a silnější kabel při 12V.
Jinak nemyslim si že bude potřeba nějak přehnaně tlustej dvoudrát, limit je ten konektor, ne kabel samotnej, teda většinou, když se dá měď s většim průřezem ­(jako je třeba pořádnej kabel od repráků­) tak jsem si jistej že to těch 500, 600W zvládne i při těch jenom 12V a kdyžtak to jistí čtyřkolík, můžou vzít konstrukci toho konektoru a zdvojit jí a bude po problému. Signalizace je spíš kur*ítko a další věc co člověku komplikuje život a potenciálně může znemožnit třeba používání alternativního příslušenství. Žádná signalizace neni potřeba, kdo neumí zasunout konektor se nemá hrabat v PC a když to bude normální dvou až čtyř drát, tak tam nebude nic trčet a lámat konektor, to prostě nejde zapojit špatně. Ale když chtěj tak tam holt daj i signalizaci, na to stačí už tenkej kabel, neni to žádnej velkej problém navíc. Prostě jde to vyřešit kvalitně a jednoduše, ale obří korporát má prostě svojí strategii do budoucna, protlačit ten jejich nesmyslnej standard se jim prostě asi hodí.
Taky by tam místo signalizace prostě mohli vymyslet nějakou kontrolu odporu konektoru třeba předtim než grafika naběhne a začne z něj papat, všechno jde když se chce, když mi to může v biosu ukazovat jaký napětí má CMOS baterka, tak můžou určitě i zjistit odpor vedení ke grafice, nebo tam dát tepelnej senzor co by snížil výkon třeba při 90°C což by značilo nějakej problém, tepelnej senzor má dneska každá kravina v PC, zase, neni to žádnej problém, grafika jich má dneska několik, jeden navíc u konektoru nemůže bejt problém. Prostě jde to řeišt vechno mnohem líp, ale holt když se nechce, tak se nechce.
Odpovědět1  0
jo to psal ten druhej že na to nemá, zase světhardware mi hází do mailu všechny reakce i když to nebyla reakce na mě
Odpovědět0  0
To reaguješ na mě? Dyť ty vůbec nevíš o čem mluvíš, proč na to reaguješ když nevíš ani co je napětí a proud? Právě proto aby byl kabel tenčí, tak chci zvýšit napětí přece! Mysli trochu. Tvoje srovnání s 380V je úplně mimo, to neni tlustý kvůli napětí ale protože je to 3fázová zásuvka která utáhne až 12 kW. Proboha jsme na světhardware, člověk by čekal že tady budou lidi co trochu věděj, ale teď už chápu proč se tady lidi těch nvidia konektorů zastávaj.
Když přejdeš na 24 nebo 36V tak ti pro stejnej příkon bude stačit mnohem tenčí kabel, zjisti si co je ohmův zákon než mi začneš psát nesmysly.
Odpovědět1  0
Kde jsem psal že na to nemam prosimtě? Jenom nejsem tak blbej abych tohle podporoval, každá nová grafika stojí 2x víc než ta předešlá aby to byl nějakej upgrade a takhle už to trvá tak 10 let, poslední normální doba byla tak do roku 2015, pak je všechno v háji, hry totálně zfušovaný, na grafiku jako z roku 2015 potřebuješ RTX4080 bezdůvodně a 32GB ram. Kdyby dneska vydali hru co vypadá stejně jako první Crysis, tak to bude chtít taky 4080, prostě to nedává smysl, starejch her co jsem ještě nehrál je tolik že nechápu proč se účastnit tohohle trapnýho závodu, už mi neni 15 a čas běží tak rychle že se párkrát vyspim a už ta hra je 5 let stará tak proč to hrát hned.

Jinak konektor je k ničemu, sám jsi řekl proč, pokud je tak blbě navrženej že je to fakt na hraně toho co to zvládne a stačí nějaká výrobní vada a vyhoří to, tak to prostě je špatnej konektor. Nevim jestli víš něco o elektronice, ale ty proudy co tam tečou při jenom 12V jsou nesmyslný, pokud chtěj dál zvyšovat příkony grafik, tak jediná rozumná možnost je přejít na 24 nebo klidně i 36V, ale to by bylo moc jednoduchý, stačilo by vyměnit zdroj a odpadnul by ti tlustej kabel, oni radši budou přidávat nový kabely co jsou k ničemu a protože je tvuj starej zdroj nemá, tak stejně musíš koupit novej nebo použít redukci na 35 normálních 8pinů takže to celý vůbec nedává smysl.
Odpovědět1  0
Přitom je to tak jednoduchý, prostě tam dát pořádný tlustý kabely, prostě jenom plus a mínus a nějakej pořádnej konektor ve stylu t­-dean nebo XT90 a bude po problému. Ale to bych viděl ještě radši, je přechod na 24V a pokud se ty příkony budou zvyšovat, tak jiná možnost to budoucna neni, tohle je prostě nesmysl to co dělaj, ty vole 2, 3, 4, 10 8pinů na AMD, na nvidii hořící konektory, redukce na 35 8­-pinů, jsem zvědavej kdy se objevěj karty co budou mít taky 2 nebo 3 ty pakonektory od nvidie, tohle prostě nemá budoucnost.

A neni to chyba vývojářů HW, dnešní hardware je skvělej a superiorní, problém je ve zprasenejch hrách a softu a vývojáři HW na to prostě musej reagovat a jinak než to zvětšovat a zvyšovat TDP už to moc nejde. Je to naprosto špatná cesta, koukni se jak vypadal první Crysis a na čem to jelo.....dneska potřebuješ 50x silnější HW na stejně vypadající grafiku a když řekneš že je něco špatně, tak ti nadávaj do boomerů a odmítačů pokroku nebo co.
Ne, tohle fakt neni pokrok, hrabu se v PC 20 let, začil jsem tu dobu kdy byl reálnej pokrok, ty krvavý nároky nějaký nový hry byly ospravedilnitelný tim jak to vypadalo, dneska to nedává smysl. To samý se softwarem, je to čimdál pomalejší a nabobtnalejší, tenhle závod nejde vyhrát, k rychlosti PC s Win XP ­(odezva na otevírání složek a podobně­) se dneska s Win 10 nebo Win 11 ani nepříblížíš ani s TOP hardwarem, prostě to nejde a když řekneš že je to dneska pomalý, tak kidi kolem 18 let ti nevěřej nebo ti dokonce sprostě nadávaj.

ANO, DŘÍV BYLY POČÍTAČE MNOHEM RYCHLEJŠÍ, jestli nevěříte, tak máte nějakej input lag v mozku že to necejtíte a nebo to prostě nepamatujete, ale dá se to snadno otestovat, ten pocit z používání PC z konce XP éry je něco co mě dokáže rozbrečet protože mi to chybí, dneska furt jenom čekáš, klikneš pravym myšítkem a čekáš čtvrt vteřiny než se něco stane. To samý prohlížení fotek, jak je možný že stejně velký fotky jdou na starym PC s monitorem co má stejný rozlišení otevírat a procházet mnohem rychlejc než dneska?
Odpovědět2  2
Kdyby to umělo virtuálně třeba 6 jader, tak budiž, ale problém je že některej soft a hry už chtěj aspoň ty 4 vlákna a může se stát že za 2 roky se začnou objevovat programy nebo hry co už počítaj se 6 nebo 8 vláknama a bude to problém i kdyby ten procesor měl na to ten hrubej výkon.
Tohle se stalo tenkrát u Zaklínače 3 že od nějakýho patche hra najednou chtěla 4 vlákna a na dvoujádru bez HT to lagovalo a zamrzalo, myslim že to bylo od verze 1.08, takže fakt ty 4 vlákna absolutní minimum.
Odpovědět4  0
Disk co si neudrží data po vypnutí proudu by náhodou využití našel třeba na různý testování a hrátky s retro počítačema, místo formátování disku bych prostě z něj vyndal a zandal baterku jako na základní desce nebo tak něco. :­-)
Odpovědět0  2
Co updatuje google je ti k prdu když nemáš mobil od googlu ale třeba od lenova nebo asusu. V poslední době bych řekl že se to celkem zlepšilo, už neni nová verze androiudu tak často, ale před pár lety to bylo pekli, jsi začínal třeba na pětce nebo na šestce a za 2 roky už aplikace vyžadovaly android 8, tohle je prostě umělý zastarávání a vyhazování elektroniky která je 100% funkční a i výkonově by to furt vyhovovalo a na to opravdu některý vlády už zákony maj nebo chystaj. Ale problém je že tohle neni chyba ani tak výrobce mobilu, ale spíš toho kdo zakázal instalaci tý aplikace na starší verzi aby tu podporu uměle uříznul. Je to věc pár kliků aby někdo tu instalaci a viditelnost v google play povolil i pro starší verzi. Tim neřikam že to má fungovat i na androidu 4.4 nebo tak něco, je mi jasný že to jádro už se pak víc liší když je to rozdíl třeba 7 let, ale ať mi nikdo neřiká že současná aplikace nemůže fungovat třeba na androidu 8 nebo 9, dyť jsou ty systémy skoro stejný až na hnusnější GUI u těch novějších. A nebo další možnost ­- donutit google aby prostě nevydával 2 androidy ročně a místo toho spíš dělal bezpečnostní záplaty pro zaběhnutý systémy, podobně jako to funguje na PC, taky nemusíš 2x ročně updatovat na novou verzi windows, jenom aktualizuješ tu co máš a velkej upgrade na novou verzi je třeba jednou za 5 let. Stejně by to mělo bejt i s mobilama, nechápu proč potřebujeme každej rok jednu až 2 verze androidu když se to stejně v ničem neliší, akorát v čísle v názvu.
Odpovědět4  0
Nejhorší na tom je že měníme mobil ne protože by starej odešel, ale protože nějaká aplikace kterou potřebujeme hlásí že na týhle verzi androidu už jí nesmíš používat, tohle by měla EU řešit a ne kraviny.
Další věc je to jak neustále rostou HW nároky aplikací a maj čimdál horší optimalizaci, máte třeba dost nabušenej mobil a po roce a po pár updatech už se na tom zase sekaj i jízdní řády, fakt nechápu proč tohle dělaj, chci aby to bylo jako ve StarWars že bude mít loď tisíc let stejnou verzi systému, když už něco došlo do stavu vývoje že to funguje a vyhovuje, tak by to neměli takhle prasit, ale chápu, kapitalizmus a ekonomika musí jet.
Odpovědět3  0
Taky si myslim že to je blbost, ale dokud to člověk fakt neotestuje, tak nemá jistotu. Chování některejch nejlevnějších powerbank by tomu odpovídalo.
Odpovědět0  0
S Ryzenem 3800X a RTX2070 super mam ve windows když nic nedělam na měřáku tak 80­-100W, což je docela dost, čekal bych že už to dneska bude lepší, ale je to úplně stejný jako na 10 let starym HW.
Odpovědět0  0
Teď na mě ségra machrovala že řekne ­"hello ciri, turn on the flashlight­" a trvalo to tak 5 vteřin než se ta svítilna zapnula, za tu dobu jsem jí s tou baterkou blikal do ksichtu na androidu pomocí zkratky na bočnim tlačítku ­(2x zmáčknout mam nastaveno jako svítilnu­), takže asi tak. :­-­)
Odpovědět0  0
Ale k čemu ti to v praxi je? Je to prťavej mobil kterej vydrží na baterku pár hodin, i kdyby to bylo takhle superiorní jak řikáš, tak to musíš dát do nějaký dokovací stanice, připojit monitor, myš a klávesnici a pak už to neni mobil že jo. :­-­) Jako je super co jde dneska na mobilech udělat, ale nakonec to všechno stejně zazdívá omezenost těch aplikací, ne, jako fakt nemůžete srovat nějakou ať už android nebo apple aplikaci s plnohodnotnym desktopovym softwarem, je to blbost.

Ale každopádně v ARM architektuře asi je budoucnost a myslim že nám zbejvá tak 5, maximálně 10 let a Microsoft bude muset tu x86 platformu zaříznout protože už prostě bude moc archaická, to se reálně může stát v ne tak vzdálený budoucnosti a možná to tak bude dobře. Na kompatibilitu nebo retro hraní si pak člověk prostě postaví něco staršího.
Odpovědět0  0
někdo řikal že v Chromu je skóre o dost vyšší než v jinejch prohlážečích, ale nechce se mi to kvůli tomu instalovat :­-)
Odpovědět0  0
Ještě před rokem ten mobil byl na vrcholu žebříčků v Antutu a že už jsou teď zase silnější mobily je mi celkem jedno, nechápu k čemu mi to je honit nějaký skóre na mobilu. Pokud to nezprasí nějaká aktualizace ­(jako se mi to stalo na Lenovu P70 a pak na Zenfonu Zoom S­) tak ten mobil budu mít asi ještě hodně dlouho, minimálně do doby než aplikace začnou vyžadovat nějakou verzi Andoridu kterou nemam, ale už mi to nabízí update na android 13, takže minimálně na další rok, dva mam někde nějaký to vaše honění pindíků v benchmarcích. Tenhle mobil má reálně asi 10x větší výkon než mobil co jsem měl předtim a když se kouknu na to co se prodává teď, tak tam stejně nic lepšího za rozumný prachy neni. Priorita je pro mě aby to bylo menší než je dnešní standard ­(obří pádlo už znova nechci­) a aby to mělo minimálně 4000 mAh a kromě Zenfonu 8­/9 na trhu fakt snad nic jinýho neni.
Odpovědět0  0
to jste ale evidentně nepochopil vůbec co píšu, řeč byla o primitivní powerbance co nemá žádnej měnič na výstupu, ale pere tam rovnou napětí z článku, což bych docela pochyboval že to mobil vůbec vezme, ale na druhou stranu bych se nedivil tomu že to tak některý výrobci fakt ošiděj
Odpovědět0  0
To ale neni slabym výkonem PC, to je jednak tim že desktopový prohlížeče zaspaly dobu a jsou celkově blbě optimalizovaný a druhak tim že mobily nejsou x86 architektura a tak se software pro ně psanej nemusí prasit archaickejma kódama z 80. let. A další věc je že ten test neumí využít grafickou kartu kde vám leží opravdu hodně výkonu jentak, zkus ale na mobilu renderovat něco kde se na desktopu grafika používá a uvidíš ty hučící větráku, ten mobil kolikrát je horkej jak sviňa i jenom když chvíli točim video a ty bys na tom chtěl pouštět nějaký benchmarky.
PC máš takový jaký sis to udělal, pokud ti tam něco hučí, tak jsi jeliman. :­-­)

A co se týče těch prohlížečů, tak sice je ta mobilní verze efektivnější, ale stejně je ve výsledku mnohem rychlejší a produktivní tu práci udělat na PC kvůli plnohodnotnýmu ovládání, práci se záložkama a tabama a podobně.

Na Ryzenu 3800X ve Firefoxu mi to hodilo 144 bodů, na Asusu Zenfone 8 v Opeře to hodilo 57 bodů a to je mobil kterej je pořád i na dnešní poměry celkem výkonnej.

A srovnávat nějakej 5 let starej notebook s nejnovějšim iPhonem taky neni úplně fér a PC se mi nevybije za 12 hodin. :­-­)

PS: využití CPU i GPU při tom testu bylo kolem 12%, takže ten HW sotva ví že je v zátěži a přesto to hodí 3x vyšší skóre než mam na celkem silnym mobilu
Odpovědět1  0
Člověk by čekal ale že v takovym případě mobil nerozpozná nabíječku a nabíjení vůbec nezačne protože to napětí prostě nesedí, ale taky jsem měl kdysi powerbanku co se tak chovala. No a když má článek třeba už těch 3,6V, tak samozřejmě nenabije baterku nad 3,6V, to je celkem logický.
Odpovědět0  0
Tak ono je to docela logický, ta powerbanka by musela mít pokročilejší nabíjecí obvod a to že to z klesajícího napětí na aku dokáže udělat těch stabilních 5V ­(u lepších powerbank­) taky neni zadarmo, je tam nějaká účinnost. Pokud máte v mobilu 4000 mAh a powerbanku co má 4000 mAh, tak rozhodně mobil nenabijete od 0 od 100, to je celkem logický.
Odpovědět0  0
Jak furt řikam ­- dnešní výrobky nikdo pořádně netestuje a všechny novoty se posílaj rovnou zákazníkovi na betatest. Když jsem si před asi rokem kupoval záložní zdroj se zásuvkou na 230V tak jsem taky koukal na to USB­-C který jak nabíjí, tak se to přes něj nabíjí a řikal jsem si že nějakej takovej problém se může stát a už je to tady, asi jsem nostradámus. Každopádně ty nabíjecí protokoly by přece neměly bejt tak hloupý že to začne po dokončení nabíjení téct obráceně, případně že to hned nabíjí opačnym směrem než chci. Pokud mobil něco takovýho umožňuje, tak by to mělo bejt nějak na vyžádání a ne že to mobil dělá automaticky, ale jak řikam, dnešní výrobky a software nikdo netestuje, betatester je zákazník.
Odpovědět0  0
to zase budou hořet konektory :­-)
Odpovědět4  0
Ehm, a co jinýho bys chtěl mít v kompu než zastaralou x86 z roku 1978? Neřikej mi že jedeš na ARM nebo tak něco. :­-­)
Jako chápu tě, taky jsem extrémně zklamanej z vývoje HW a taky si myslim že tahle architektura už by se měla hodit do koše, ale problém je kompatibilita, lidi furt potřebujou používat starší software a emulátory jsou neefektivní a ne vždycky v nich všechno jede korektně.
Ale fakt si myslim že třeba kolem roku 25 už by to měli kompletně překopat a na hraní starších her a používání staršího softu by prostě člověk měl mít dobovej PC, jiná cesta neni, případně integrovat nějakej pokročilej emulátor přímo do Windows. Osobně nechápu proč ve Win neni v základu něco jako DOS box když to evidentně neni žádnej problém naprogramovat, Microsoft prostě tyhle věci nechce řešit, ale pokud se intel a AMD rozhodnou že s x86 je konec, tak na to Microsoft bude muset reagovat.
Odpovědět0  0
Oblivion jsem měl rád, ale moc nechápu tenhle trend remasterů když původní hra jde furt normálně spustit, nějakej lehčí update by byl super, ale rozhodně bych do toho víc nehrabal. Místo těhle remasterů by nám konečně měli dát novej díl TES.
Odpovědět0  0
V tom si udělam základnu až vypukne zombie apocalypsa. :­-)
Odpovědět1  0
Cyberpunk jede úplně v pohodě, po těch větších updatech si na optimalizaci nemůžu stěžovat, dá se to rozchodit i na potato PC.
Odpovědět2  0
Jestli to chápu správně, tak to naopak zlepšuje využití HW, 8 jader je dneska standard a pokud předtim hra nedokázala celej CPU využít, tak to bylo špatně, takže pokud teď bude hra optimalizovaná pro 8­-16 vláken aby to ten CPU fakt využilo, tak je to jedině dobře. Otázka je jak se to projeví u lidí co maj třeba jenom šestijádro. Něco podobnýho kdysi udělali u Zaklínače 3 že po updatu tušim 1.08 byla hra najednou nehratelná na dvoujádru co má jenom 2 vlákna.
Odpovědět1  0
To je ale právě ten problém, stejnej trend je teď na CNC strojích na kterejch dělam, na novym stroji nemusíte umět psát přímo kód do stroje, ale ve výsledku je to ještě složitější a většinu času trávíte tim že se snažíte přijít na způsob jak něco ochcat nebo udělat něco co by pomocí staromódního programování bylo strašně jednoduchý napsat. Jsem si celkem jistej že stejnej trend je i u těch herních enginů a tomu i odpovídá ta čimdál horší optimalizace, co si nezoptimalizuješ sám ručně, to optimalizovaný prostě nebude, nějaký automatický optimalizátory jsou totální hoax, nic takovýho reálně nefunguje a většinou to věci uděljá jenom horší a pak to zase člověk opravuje to co optimalizátor totálně zprasil a udělal ten kód ještě delší než byl předtim, je to všechno totálně k ničemu, co si nenaprogramuješ sám, to nemáš.
Neřikam že dřív hry neměly krvavý nároky na HW, ale stačilo počkat rok a mohl jsi to hrát na 200 FPS, dneska nebejt DLSS a FSR, tak už nerozjedeš pořádně nic, hry chtěj 32GB ram a 16GB VRAM a přitom spousta těch moderních her nevypadá o moc líp než první Crysis a to je prostě strašně smutnej vývoj.
Odpovědět1  0
Jednou jsem si to chtěl pokusně zkusit na starý Pentium 4 která měla pájený IHS a nepovedlo se mi to, urval jsem to i s jádrem který zůstalo připájený na IHS, takže fakt nedoporučuju to zkoušet za studena, zničíte to. U Haswella s pastou to šlo lehce, ale u procesorů který je to fakt připájený bych to nedělal.
Odpovědět0  0
Moc nechápu jakej smysl má delidovat CPU kde je pájenej IHS, jednak to v domácích podmínkách člověk spíš zničí než deliduje a druhak ­(pokud to neni připájený nějak zmetkově­) to nebude mít na teploty žádnej vliv.
Odpovědět0  0
Před pár lety u Haswella mi delid snížil teploty asi o 15°C :­-D
Odpovědět0  0
Mělo by to bejt jako na PC, že je prostě nějaká velká verze Androidu a ta se bude průběžně aktualizovat třeba 5 let a pak se teprve přejde na nějakou novou verzi, za 5 let ten mobil asi každej vymění, ale když mi fakt na 3 roky starym mobilu nejde nainstalovat aplikace pro e­-banking protože pár let stará verze androidu už neni podporovaná, tak to je fakt výsměch zákazníkovi. A další věc je že mam z těch aktualizací androidu dost hrůzu, měl jsem několikrát lenovo a asus a vždycky to ze začátku fungovalo skvěle, ale po pár aktualizacích to začalo bejt zabugovaný a polofunkční, na předchozim asusu zoom S mi po poslední aktualizaci padal i google play a další update už nebyl, což fakt vypadá jakože to dělaj schválně.
Odpovědět0  0
to je další věc, že lidem je všechno jedno, sice nadávaj co by chtěli, ale když to reálně bude na výběr, tak si stejně zase koupěj to nejlevnější
Odpovědět0  0
nikdo nekupuje novej mobil protože by se necejtil bezpečně, lidi kupujou novej mobil protože ti začnou z google play mizer aplikace protože nejdou nainstalovat na 3 roky starou verzi androidu, což je fakt směšný
Odpovědět2  0
Všechno jde když se chce, ale zalejt to celý do plastu je prostě jednodušší a levnější, proto to dělaj. Jinak moc nechápu pro koho dělaj ty ultra tenký mobily, každej koho znam, tak na to jenom nadává že se to blbě drží, pak vám to padá po zemi a tak....jak už jsem psal v jinym komentáři, žijeme v korporátivismu kdy ty globální korporáty vyráběj to co chtěj abysme kupovali a ne naopak že volnej trh koriguje to co maj oni vyrábět, to funguje je jenom u malejch firem kterejm jde o každýho zákazníka, ale těmhle obřím korporacím je to už dávno jedno protože věděj že koupit musíte protože ten mobil potřebujete a budete ho museet po těch 2­-3 letech vyměnit buď protože umře baterka a nebo protože aplikace který potřebujete začnou hlásit kup si novej mobil.
Je směšný že na PC člověk může klidně jet na nějaký core 2 quad s Win 7 a furt s tim víceméně všechno udělá, ale 3 roky starej mobil je skoro nelegální a už se s nim nedostanete snad ani do internetovýho bankovnictví, tenhle dvojí metr by měl taky skončit, je to směšný.
Odpovědět0  0
Ale je smutný že je k tomu musí donutit EU a trh sám nic nezmění, je vidět že žijeme v korporátivismu a normální volná ruka trhu už nic nezmění, protože pokud chci vyměnitelnou baterii, tak jak to mam jako zákazník udělat abych ten trh směřoval tim směrem když na trhu nic neni? No jasně že je pro ně výhodnější to celý zalejt do plastu, ale je to tak správně? No roky to šlo že byla vyměnitelná a najednou to nejde, ať mi neřikaj že to nejde, máme foťáky se kterejma se dá potápět a oni tvrděj že to nejde protože odolnost vůči vodě, já se přece s mobilem nepotřebuju potápět, stačí když to odolá pár kapkám deště.
Zase to řešim, mam mobil něco přes rok a i přesto že má 4000 mAh, tak se mi zdá že ta výdrž stojí za prd a mít u sebe druhou baterku by bylo pohodlnější a energeticky efektivnější než to nabíjet někde venkz z powerbanky.
Odpovědět0  0
Nevim kdy se tvrdilo že limit je 7 nm, pořád čtu že ten limit bude někde kolem 2 nm kde už ta brána kterou musí neutron projít bude stejně velká jako ten neutron, takže nemůže projít a tranzistor tak nemůže fungovat. Je víc nápadů jak to obejít, ale všechno je to zatim spíš z říše sci­-fi, jako třeba fotonový tranzistory nebo nasazení kvantovejch počítačů i v domácích PC.

O čem se ale hodně mluví je optimalizace a zvyšování efektivity kde jsou furt velký mezery a na tohle se budou výrobci v příštích letech nejvíc zaměřovat na tu optimalizaci, proto se mluví třeba o odstranění podpory 16bit instrukcí a podobně.
Dneska se ty čipy furt navrhujou z velký části podle zkušeností těch vývojářů, což je neefektivní, máš miliardy tranzistorů a ty cesty jsou neefektivní a moc dlouhý, mluví se o vycvičení AI která by mohla to rozmístění tranzistorů a elektrickejch cest navrhnout mnohem efektivnějc, což by mohlo udělat velkej rozdíl, tak uvidíme co přinese příštích pár let.
Odpovědět0  0
Měl jsem za posledních 15 let oboje, jak nvidii tak AMD a AMD grafiku už rozhodně nechci, i kdyby měla hrubej výkon 3x vyšší. Ovladače opravdu příšerný jsou, maj kratší podporu, takže třeba pro grafiku z roku 2015 už nejsou aktuální ovladače, zatimco nvidia pořád podporuje i řadu GTX600. A pokud na PC i pracuješ, tak dost možná potřebuješ CUDU a DLSS je o něco efektivnější než FSR nebo XeSS a drtivá většina her už dneska DLSS podporuje, zatimco opravdu ne každá hra podporuje FSR. A DLSS je to co dělá rozdíl mezi tim jestli si tu hru zahraješ nebo ne, protože ty dnešní zprasený hry bez těhle ochcávek už nikdo nerozjede, zvlášť ne ve 4K, DLSS prostě potřebuješ. Až bude každá hra podporovat FSR tak klidně řeknu že si můžeš koupit AMD, ale zatim to tak fakt neni, navíc DLSS má nějakej rok, dva náskok ve vývoji, u DLSS 2.0 už prakticky nepoznáš rozdíl oproti nativnímu 4K a máš třeba +50% FPS, což dělá rozdíl mezi tim jestli se to dá nebo nedá hrát. Na tuhle úroveň se FSR dostalo až s nejnovější generací která fakt neni podporovaná ve všech hrách, zatimco DLSS 2.0 už maj i 2­-3 roky starý hry a to fakt dělá rozdíl.
Jako AMD za tohle samozřejmě nemůže, neřikam že je to jejich chyba že nvidia si tady jede nějakou svojí privátní funkci která funguje jenom na RTX grafikách, ale prostě to tak je a jako zákazník to prostě musim akceptovat. Ještě kdyby nvidia dávala víc VRAM, vydat dneska grafiku za 20 tisíc s 12GB je výsměch.
Odpovědět1  1
PS: pokud vim tak 2070S byla jenom přeznačená 2080
Odpovědět0  0
Tak lidi tenkrát řikali že jsem blbej že jsem to koupil, ale pak se začalo do her rozšírovat DLSS a byl jsem vysmátej díky tomu že jsem šel do RTX grafiky, protože jsem myslel do budoucnosti a s rozšířením DLSS jsem počítal.
Odpovědět1  0
No ale 8GB nám vydrželo skoro 10 let, poprvé jsem dával 8GB do notebooku v roce 2012 a i o 10 let pozdějc se furt prodávaly notebooky co měly 4GB!!!! Tomu se skoro ani nechce věřit co se nám snažej prodat. Naštěstí cena ram šla tak dolů že u stolního PC už můžete mít klidně 64GB ­(kdyby to teda k něčemu bylo dobrý­). Ale v čem vidim větší problém je ta špatná optimalizace, tyhle obludný kapacity ram a VRAM bysme nepotřebovali kdyby se hry a soft líp optimalizovali. Koukni se na čem jel Crysis v roce 2007, stačila 256MB grafika a jak to vypadalo! Dnešní hry už skoro padaj na 8GB grafice pro nedostatek VRAM a přitom spousta těch her nevypadá výrazně líp než hra z roku 2007.
Odpovědět2  0
Je to hrozný no, v roce 2019 jsem za stejnou cenu kupoval 2070 super a 4070 má jenom o polovinu vyšší výkon, ten vývoj se skoro zastavil, ale vývojáři her a softwaru to totálně nerespektujou a dělaj furt hry na HW kterej ještě neexistuje.
Odpovědět0  1
Ano, jsou to borci když se začínaj dostávat na limit toho co je možný udělat s křemíkem, řiká se že 2 nm výrobní proces bude poslední a dál už to prostě nepůjde.
Jinak konečně někdo kdo chápe že mezi 3700X a 3800X je dost rozdíl v TDP a teplotách, když zastropuju TDP na nějakejch 90W, tak jsou teploty o hodně lepší, což ukazuje že nižší modely by s chlazením žádnej problém mít neměly.
Odpovědět0  0
Tak Intel grafiky jsou naopak poměrně úspěch, teda myslim to že je fakt uvedli na trh a pár lidí si to dokonce koupilo na výstavu na zeď jako kuriozitu. :­-D Oni věděj jaký chyby udělali v tý architektuře, což znamená že by je teoreticky s další generací mohli opravit a já doufam že to s těma grafikama intel nevzdá, to že dokázali hodit na trh něco co se výkonově blíží aspoň pár let starejm nvidiím a AMD nižší střední třídy je docela zázrak když si vezmeš jakej má AMD a nvidia náskok, 20 let je dlouhá doba a intel se dokázal nějak chytit, tak musíme doufat protože ten třetí hráč na trhu by byl opravdu skvělej pro zákazníka, bohužel ta současná generace intel grafik moc konkurenceschopná neni.
Odpovědět0  0
Potvrzuju, Ryzen 3800X potřebuje undervolt aby to šlo uchladit na míň než 90°C ve 100% zátěži. A ne, nebudu znova reagovat na AMD fašisty co ten procesor nikdy v ruce neměli a budou řikat že si neumim po 20 letech v PC nasadit chladič a nanést pastu, zkoušel jsem i tekutej kov a lapování procesoru, nic nepomohlo, je tam prostě teplotní bottlneck mezi jádrem a IHS přes kterej prostě nejede vlak a výkonnější chladič od nějakýho chladicího výkonu už nemá žádnej vliv na teplotu. Tady má intel díky svojí ­"zastaralosti­" paradoxně výhodu protože je snazší to teplo odvést z jader co jsou vyráběný staršim výrobnim procesem. Samozřejmě zdá se že je to proti logice a bejvalo to opačně, ale dostali jsme se do nějaký takový singularity kdy přestávaj platit normální fyzikální zákony když už ta brána kterou ten elektrom musí projít je velká přesně jako ten elektron že se tam prostě už skoro ani nevejde a tohle se bude s menšíma výrobníma procesama ještě horšit.
Odpovědět0  0
Asi tak, na stejnou grafiku jako měla 10 let stará hra dneska potřebuješ RTX3080, tenkrát to rozjela na 60 FPS nějaká GTX 460, jsem z toho těžce zklamanej, dokonce uvažuju o tom že už upgradovat ani nebudu, protože tenhle závod se nedá vyhrát. Mezi lety cca 2010­-2017 to byla pohoda, nároky her se skoro nezvyšovaly a člověk si mohl na slušný sestavě užívat vysokýho FPS, ale teď si připadam jak v roce 2000, vyjde nová hra a potřebuješ 3x výkonnější komp abys to rozjel, až na to že tenkrát byl fakt velkej pokrok v tom jak ty hry vypadaly, dneska je to jenom těžce špatně optimalizovaný. Si vem na čem jel Crysis 1, to je uplně k pláči kam jsme to dotáhli, ta hra šla rozjet na jednojádrovym celeronu a nějaký geforce 7600 s 256MB VRAM a fakt to nevypadá 32x hůř než dnešní hry, jsem fakt zklamanej a nechápu co k tomu vlastně ty studia vede, proč prostě nějakou dobu nezůstanou na ověřenym a opatchovanym enginu kterej dobře znaj? Třeba jak teď vyšel Jedi Survivor, tak ten engine totálně zprasili svejma scriptama tak že pracuje s vlákanama uplně jinak než je standardně přednastaveno, což jenom dokazuje že nevěděj co dělaj a neuměj ty nový enginy používat, tak proč na nich sakra slibujou hry? U některejch her z poslední doby ­(a myslim že to byl zase Jedi­) dokonce použili verzi enginu o který se ví že je bugnutá a dávno je updatnutá verze, někdy mi připadá že si z hráčů fakt dělaj srandu.
Ale tohle už došlo do tak obludnejch rozměrů že nová hra nejede pořádně ani na kompu za 100 tisíc a na konzolích to laguje a je tam FPS lock na 30. Nebejt DLSS, tak si na PC už dávno nikdo nic nezahraje, tohle prostě musí přestat, neměli bysme to podporovat našima penězma, jsou to podvodníci. A teď nemyslim výrobce hardwaru, ti se fakt snažej a máme grafiky co jsou totální ujetost co se týče hrubýho výkonu, ale stejně je to všechno k ničemu protože vývojáři her a softu to sabotujou.
Odpovědět0  0
Kdo by to taky kupoval, moje současná 2070 super stála 15 tisíc v roce 2019, to jsou 4 roky zpátky! A i tenkrát jsem nadával jak to bylo předražený. Pokud budu chtít dneska upgrade kterej aspoň trochu dává smysl ­(ne že budu kupovat něco co má o 30% lepší výkon, to je kravina­) tak potřebuju minimálně 4070 Ti, nebo spíš 4080, to se asi zbláznili ne? Navíc ty grafiky jsou velký jak krabice of monitoru, a ještě si dělaj z lidí srandu těma kapacitama VRAM. AMD zase nedporporuje DLSS, což neni jejich chyba, ale je to prostě jak to je, grafiku co neumí DLSS bych prostě v dnešní době nekoupil a zároveň nebudu na budoucí 4K hraní kupovat grafiku která má míň než 16GB a zároveň prostě odmídam dát za grafiku víc než 15 tisíc.
A další věc je že hry jsou čimdál horší a už to došlo do takovýho extrému že nevim jeslti vubec chci ještě upgradovat, protože stejně neni co na tom hrát, člověk 20 let upgraduje aby mohl hrát ve 120 FPS a ono furt ne a ne a ne, koupim novou grafiku a zase jsem rád když ty nový hry jedou na 60 FPS s nějak pečlivě nastavenejm detajlama, já jim na to už prostě prdim, nebaví mě to. Ty hry vypadaj skoro stejně jako před 10 lety, ale tenkrát ti to rozjela na 60 FPS nějaká GTX460 za 5 tisíc a byl jsi vysmátej. Dneska už to zašlo do naprosto obludnejch rozměrů že ani na RTX4090 ty hry nejedou pořádně, optimalizace už neexistuje vubec a i to co dřív fungovalo krásně zprasej nějakym ­"next gen updatem­" že jo CD Projekte....prostě všichni se totálně zbláznili a trh by tohle neměl akceptovat.
Asi už budu hrát jenom starší hry.
Odpovědět8  0
Hlavně je to jenom řešení následků toho že ten konektor je blbě nadesignovej a vede k němu kabel jak od sbíječky, takže to prostě nikdy nebude rovně a vždycky se to bude lámat. Jediný správný řešení je přejít na 24V a snížit tak ty ampéry co tam tečou. A nebo ještě líp, ať mi grafika svuj zdroj a strká se do ní rovnou napětí ze zásuvky, při dnešních velikostech grafik už by se tam ten zdroj dal schovat. :­-D
Jestli trvaj na 12V, tak by to chtělo aby ze zdroje prostě vedly 2 kabely tlustý jak prase a aby se to na tu grafiku nějak pořádně šroubovalo a nebo aby to byl aspoň nějakej pořádnej konektor a ne hromada mini pinů.
Odpovědět1  1
Jediný správný řešení je přejít na 24V a snížit tak proud co přes ty konektory teče. Lidi už kvůli tomu stejně kupujou nový zdroje, tak proč ten problém nevyřešit aspoň pořádně? Navíc ten konektor sám o sobě je prostě mizernej s malou kontaktní plochou na tak velký proudy, kdyby použili něco inteligentního ve stylu třeba dean­-t konektorů, tak žádnej problém neni.
Odpovědět0  0
ještě by ten konektor mohl pípat
Odpovědět0  0
byly moc univerzální a moc AMDčkářský hádam
Odpovědět0  1
No konečně něco mezi 32 a 43­" co má normální poměr stran! Na to čekam roky!
Odpovědět1  0
Ono to má ale i výhody, ty výrobní procesy jsou fakt odladěný, zatimco AMD vypouští do světa něco u čeho teprve uživatelé dělaj beta test.
Odpovědět0  3
Proč si to rovnou nenechaj dělat u AMD? :­-D
Odpovědět2  2
Kupte si canon na tankový dolejvací náplně a dojde vám o kolik vás doteď výrobci tiskáren okrádali. Spoiler: ta nádrž na inkoust tam při běžnym tisknutí může vydržet i po celou dobu životnost tý tiskárny, třeba několik let, zatimco u těch tonerů kde je 5 ml inkoustu to otravuje sotva tam dáte novej že už to máte zase měnit, to by fakt mělo bejt nelegální.
Odpovědět0  0
A naopak ty AMDčka nejsou tak super jak AMD věřící tvrděj, topí to jak svině taky a výkon zase taková bomba neni. Co se týče výkonu CPU, tak hlad po vyššim výkonu tady bude vždycky protože ten výkon pořád ve spoustě úloh nestačí, například na střih 4K videa, ještě ke všemu v 60 nebo i víc FPS, i kdyby byly procesory 10x výkonnější, tak to bude zdržovat. Ale s hrama naprostej souhlas, to co si dneska dovolej vydat je pomalu na nějakou hromadnou žalobu ze strany zákazníků.
Já řikam už nějakou dobu že nvidia a AMD by se měly dohodnout a vytvořit nějakou certifikaci kterou by dostala jenom hra kde ty nároky jsou ospravedlnitelný ­(například ta grafika fakt vypadá bombasticky a je to krok vpřed­) ale u her co chtěj RTX4080 neoprávěně a vypadá to jak 5 let stará hra by to tu certifikaci nedostalo a zákazník by hned věděl že je to technicky odpadní hra. Případně nějakej známkovací systém by to chtělo kde by třeba Witcher 3 dostal 9 ­(nejlepší poměr jak to vypadá a jaký to chce HW nároky by byl třeba 10­) a ten next gen update by dostal 1 protože to vypadá totálně stejně jako 2015 verze na ultra, ale nejede to plynule na ničem, takže tohle se opravdu nepovedlo a zákazník by měl mít právo tohle vědět před koupením hry že si z něj vývojáři dělaj srandu, nebo vyloženě lžou jako to má teď ve zvyku CD projekt nebo Techland ­- studia co vypadaly jako naděje do budoucnosti, ale stalo se z nich něco ještě horšího než proti čemu měli bojovat.
Odpovědět2  2