Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

KingCZE

| Svět mobilně
Registrace: 25.9.2017
Komentářů: 17, score 1.6 | Svět mobilně: 1/-1.0
Účast v Expertiádách: 0
Účast v Týdenních šancích: 6 (přehled)
Mám fotoaparát: –
Chci fotoaparát: –
Měl jsem fotoaparáty: –

Nejvíce přínosné komentáře

Komentář z 7.12.2017 s hodnocením +7:
“Pak už takové snahy, jako je např. tlak EU na nízké emise aut a z toho plynoucí milovaný i nenáviděný downsizing motorů, začnou za chvilku pro životní prostředí vypadat nedůležitě. ”

On tento tlak už nedůležitý je ­- EU svými opatřeními celosvětově omezila vypouštění CO2 do ovzduší o nějakou 1 tisícinu procenta, za cenu likvidace vlastního průmyslu a dovozu konkurenčních průmyslových výrobků ze zemí, kde takováto omezení nejsou ­(Čína­). Navíc v EU pořád jen hledí na neškodné CO2 místo na naprosto neekologickou těžbu lithia pro údajně “ekologické” baterie do elektroaut apod.. CO2 je naprosto přírodní, přirozeně odbouratelný, neškodný plyn, který je z hlediska skleníkového efektu oproti samotné vodní páře naprosto zanedbatelný.
Komentář z 23.5.2023 s hodnocením +4:
Tyjo, z procesorů se nám postupně stávají grafické čipy, ne? :D
Komentář z 7.4.2023 s hodnocením +4:
Mě by zajímal výkon v inženýrských aplikacích, kde je výkon silně limitován přesuny dat mezi CPU a RAM ­(např. některé simulace v Ansys nebo FDS­). Tam pak musí být výkon úplně brutální, pokud se vejde simulace do 3D cache procesoru.

Nejméně přínosné komentáře

Komentář z 2.12.2022 s hodnocením -2:
Nezaměňujete kauzalitu? Spotřeba neudává výkon ­(maximálně efektivitu­), ale frekvence je jedním z parametrů výkonu. A frekvence je limitována spotřebou, ne naopak. Stejně tak je frekvence limitována teplotou, ne naopak ­(a výkon může být, pokud teda dochází k throttlingu­).

Tzn., jestliže autor konstatuje, že při testu měl procesor o 10 % vyšší takty, měl by mít při minimálně stejném IPC o 10 % vyšší výkon, nehledě na spotřebu ­(pokud tedy opravdu nedochází k nějakému tepelnému throttlingu nebo něčemu­). Vaše úvaha by platila, kdyby autor nezmínil explicitně frekvence, při kterých to běželo, tedy že to nebylo seškrceno spotřebou.
Komentář z 23.8.2018 s hodnocením -1:
Nevidím důvod, proč by se z hraní na PC stala okrajová záležitost ­- vždyť streamovat se může i na PC ­(ne jen na konzole­) ­- to se zavedením cloudového hraní na konzolích nijak nevylučuje.
S cloudovým hraním možná mohou souviset právě kroky NVidie, kdy se podle vlastních slov “nezaměřila na zvyšování hrubého výkonu” ­(ne že by mezigenerační nárůst hrubého výkonu o 20 % byl nějak málo ­- je to spíš taková klasika­), ale zaváděním nových technologií. Vidím to asi takto ­- při nástupu cloudového hraní se razantním způsobem sníží uživatelovy nároky na HW, ale server zároveň nebude muset nahrazovat tisíce GPU aby pro každého hráče vykreslil scénu zvlášt ­- scénu ­(lokaci­) bude stačit vymodelovat jednou ­(zato pořádně, ale jen jednou...­) a ta se potom nasdílí všem. To by znamenalo obrovský výpadek prodejů pro herní segment ­- proto asi NV zavádí třeba RT a AI. Ray Tracing je totiž pro každý pohled jiný ­(záleží na tom, odkud se dívá “kamera” ­/ monitor­). Proto RT nepůjde přenášet z cloudu a právě pro to budou podle mě určeny nové generace ­(myšleno generace po Turingu­) GPU. Pro to, aby ­(kdo na to má­) si mohl kdokoliv vylepšit nasdílenou scénu vlastním HW. Budoucí GPU už nebudou sloužit k samotnému renderingu obrazu, ale jen pro vylepšení obrazu vyrenderovaného v cloudu a nasdíleného koncovému uživateli.
Komentář z 16.8.2018 s hodnocením -1:
Ono to sice obrovským způsobem zvýší náklady na síťovou infrastrukturu a servery, ale zase radikálním způsobem sníží náklady na HW jako takový ­- grafika už se nebude renderovat 10x, 100x, 1000x, ale vyrenderuje se jednou a rozešle všem, kteří jsou v dané lokaci. Takže bude stačit zlomek grafického výkonu, než co by daly dohromady počítače všech jednotlivých hráčů, kdyby to renderovali sami. Stejné je to s fyzikálními ději ­- nemusí se ten samý děj počítat 1000x. Otázka je teď např. s příchodem Ray Tracingu ­- ten je potřeba spočítat pro každého uživatele zvlášť.
Že by k tomuto směřovala NVidia a začala vyvíjet RT karty pro hráče, kterým přijde scéna z cloudu? Pokud ne, tak věřím, že nejen MS, ale i NVidia a AMD se postaví proti cloudovému hraní, aby nemuseli prodat jen pár GPU hernímu studiu místo milionů GPU jednotlivým hráčům.