reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
29.9.2009, Petr Štefek, recenze
AMD vydalo grafickou kartu Radeon HD 5870 postavenou na nové architektuře, která je prvním zástupcem hardware s podporou DirectX 11 a také velkým výkonovým skokem kupředu. Podívejme se, co vše si pod čepicí tato novinka schovává. Co nám nabídne dnes a co nás s ní čeká v budoucnu.
Bobris | 2.10.200915:41
Pekny clanek, uznavam, ale nazor na moznost zapojeni az trech monitoru je uplne lichý. autor hleda spise minusy, ktere s porovnani s plusy mizi do pozadi... vubec treba zminena vyhoda lepsi prace na trech monitorech nez na dvouch ­(znam nekolik lidi, kteri tohle vyuzivaji, a jenom diky pomoci vic karet­), kde nakej okrajovej panel nehraje zadnou roli atd atd...

Potom este nazor typu, ze podpora dx11 je vlastne k nicemu ­(je taky uplne zcestnej­) protoze zadna soucasna kvalitni aplikace ani hra na tento standart pripravena neni ­- misto toho aby autor oslavoval to, ze HW, ktery tento standart podporuje a muze se v aplikacich rozvijet, tudiz budou drive, misto toho aby se napr. cekalo na podporu dx11 od konkurence....

Take sem se z tohoto clanku ­(mozna sem si to jenom nevsim, jestli ano, tak se omlouvam­) nedozvedel to, ze narozdil od toho jak byla kolem dx10 nafouknuta bublina hlavne ze strany microsoftu, tak dx11 si pochvaluji hlavne vyvojari, kvuli usnadneni prace a tudiz nastup dx11 bude vitanejsi nez jak to bylo za casu dx10.
Odpovědět0  0
Petr Štefek (1098) | 2.10.200919:27
Ad 1­) Je rozdíl pracovat na třech monitorech, což ocení profíci, kteří v naprosté bětšině pracují s Macem a pár těch, kteří skutečně ocení více pracovních ploch nebno jendu rozšířenou. Prezentovány jsou ovšem hry a herní využití, což je naprosot k ničemu.

Ad2­) Nikdo neřekl, že DirectX 11 je k ničemu ... je prostě teď není využitelné a není to úplně ten hlavní důvod proč Radeon koupit. Samozřejmě, že budou aplikace pro Dx11 dříve, vždyť se jedná jen o rozšíření dx10 o další zajímavé featury ... nemusí se nic dělat na zelené louce.

ad3­) vývojáři si pochvalují dx11 hlavně kvůli tomu, že dx10 je podmnožina dx11 ... široká paleta hardware k využití bez zbytečných komplikací, toť bude ten hlavní důvod.
Odpovědět0  0
vaseo (42) | 30.9.200913:56
Velmi slusny popis karty, predevsim HW. U DX11 a novych vlastnosti o neco slabsi, predevsim Order Independent Transparency ­(OIT­) nema nic spolecneho s nejakymi variabilne pruhlednymi texturami ci co ­(opravdu jsem ten popis nepochopil­), ale jde o to, ze pro spravnou transparency je treba rasterizovane body radit odzadu ke kamere. Drive se to resilo vyhradne razenim a delenim geometrie a vykreslovanim ve spravnem poradi, coz je samozrejme sileny ­'opruz­'. OIT je genialni v tom, ze se zadna geometrie radit a predevsim delit nemusi a navic vse se deje 100% korektne per­-pixel. Nicmene OIT uz je tu od DX9 ­(pomaly­), vylepseny v DX10 ­(s omezenimi, napr.nemoznost zaroven MSAA­), takze predpokladam, ze vsechny tyhle neduhy budou v DX11 pase.
Ambient Occlusion a Depth of Field by rozhodne take staly za rozvedeni, jde o zcela stezejni funkce pro pridani realisticnosti renderu.
Odpovědět0  0
Petr Štefek (1098) | 2.10.200919:22
O OIT jsem napsal poněkud kostrbatě, tohled mi uniklo ...
Odpovědět0  0
Avatar09 | 29.9.200916:39
Tak jestli to bude ve 2D uplne potichu, a za rozumný peníz bude nějaká lowend varianta, prikoupím si k tomu třetí 17­" lcd, a zas bude o dost větší prac. plocha pro tu spoustu oken v mých audio aplikacích.. Kdyby new karta stála do dvou tisíc, a stále měla 3 výstupy, udělám si radost.
Odpovědět0  0
Bobsik | 29.9.200913:51
"DirectCompute má ve standardu kompatibilitu s DirectX 10 ­(Shader Model 4.0­), DirectX 11 ­(SM 4.1­) a DirectX 11 ­(SM 5.0­).­" takovy detailik, asi tam ma byt u toho druheho ­"DirectX10.1­" . a melo by se to jmenovat ­"DirectXCompute­" pokud vim ... ale jinak:
perfektni detailni clanek, jde videt ze se autor vyzna ... hned bych pridal hodnoceni byt registrovany :)
Odpovědět0  0
Petr Štefek (1098) | 29.9.200914:06
Děkuji ... opravím chybu
Odpovědět0  0
karel743 (10) | 29.9.200911:19
Na tom sloupcovém grafu je vidět buď chyba v označení 285 a 295, nebo to dx compute, i když je stavěné na DX10, nebere v úvahu SLI. Kdo ví, jestli je to otázka optimalizace ?
Odpovědět0  0
NRX | 29.9.20098:10
No mne sa táto funkcia celkom páči, áno použitie 6 monitorov s tým, že zrovna v strede máte deliaci rámik sa mi tiež zdá scestné na použitie v hrách.
Ale keby to peňaženka dovolila ­(nakoľko som výhradný zástanca lepších IPS panelov­), by som 3 monitory bral HNEĎ všetkými 10mi...
Odpovědět0  0
Michal Huspeka (70) | 29.9.20098:41
Těch 6 LCD na jedný kartě stejně nebude až tak výhodný, bude potřeba speciální ­"Eyefinity Edition­" karta s 6x DisplayPortem a ta imho nebude až tak dostupná a díky tomu bude určitě dost předražená.
Mě osobně by se líbily 3 monitory a všechny je otočit na výšku :­-)
Odpovědět0  0
radimt (1) | 29.9.200912:00
U leteckých simulátorů by se mi těch šest monitorů občas i hodilo :­-)
Odpovědět0  0
Petr Štefek (1098) | 29.9.200914:09
Největší problém budou ty minimálně 2­-3 cm pásy mezi monitory ... vidím to tak, že tyhle věci budou použitelné v momentě, kdy budou například pružné OLED zobrazovače, které udělají kolem vás půlkruh nebo u 6 monitorů bude třeba něco bezrámového.
Odpovědět0  0
Matej555 | 2.10.200911:59
Staci si spravit drziak na vsetky monitory a dat z nich dole ramy. Bez problemov.
Odpovědět0  0
Smeli (99) | 29.9.200914:54
Btw. pěkný článek na guru3d: [odkaz, pro zobrazení se přihlaste]
Odpovědět0  0
Přizdisráč | 29.9.20096:37
Slušné článek. Chápu správně, že nVidia zatím v žádné svojí grafické kartě neměla ten tesselátor? A při přechodu na Direct X 11 ho tam budou muset přidat ? Nebo ne ? A jakou plochu jádra zabírá ten tesselátor u čipů ATi ?
Odpovědět0  0
Petr Štefek (1098) | 29.9.200910:37
U plochy těžko říct, ale nebude nijak příliš podstatná část. Tesselator je tak trochu dítě ATI. Nvidia jej doposud na žádné kartě neměla...tzn. musí ho ve svých DX11 čipech mít.
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.