reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
15.4.2004, Zdeněk Kabát, článek
Den se s dnem sešel a po dlouhém očekávání byl konečně oficiálně ohlášen grafický čip šesté generace od nVidie, GeForce 6800. Teprve minulý týden se podařilo odhalit oficiální název pro NV40, tento týden ve středu, tedy 14. dubna, skončila všechna NDA a mohu nyní říct, že víme téměř vše. Připravte se na to, že GeForce 6800 je opravdový technologický skvost a její výkon je drtivý.
Georgus | 12.4.200511:13
Jen malá poznámečka ke zmiňovanému buzzeru na této grafické kartě: Řekl bych, že tam nebude umístěn kvůli signalizaci přehřávání, ale spíše pro upozornění, že chybí zapojené dodatečné napájení ­(přes ty dva molexy­) pro grafickou kartu. Já totiž vlastním grafickou kartu Gigabyte GV­-N68T256DH ­(http:­/­/www.giga­-byte.com­/VGA­/Products­/Products_GV­-N68T256DH.htm­) a ta má na plošném spoji taktéž zapájený buzzer, který začal pískat, jakmile jsem se pokusil zapnout PC a přitom opomenul zapojit do karty právě přídavné napájení ­(systém se sám zas ihned vypnul­)...

Teď mně ale vrtá hlavou další věc. Zjistil jsem ­(podle teploty chladiče na kartě i podle měření proudu na 12V­-větvi dodávaného do své GK­), že tento ­(cca 3A­) se přiliš nemění, ať už pracuji pouze ve Windows nebo hraji nějakou náročnou 3D­-hru nebo si třeba spustím 3D Mark 05. Usuzuji z toho, že má GK tedy spotřebovává téměř stejný výkon při vytížení i na prázdno, což je poněkud neekonomické, že? Ale nějaký PowerManagement tam asi zabudovaný bude, pač když jsem si trochu hrál s V­-Tunerem, najednou při práci ve Windows klesla teplota GPU z cca 70°C na pouhých 55°C a spotřeba na 12V­-větvi se dostaĺa na necelých 800mA a čip podstatně méně hřeje!!! Jinak GK ale pracuje zcela normálně! Fakt netuším, čím se toto stalo... Nutno dodat, že GPU ani paměti jsem nepodtaktovával. Pokud by někdo měl přijatelné vysvětlení, byl bych moc vděčný...
Odpovědět0  0
Netlife | 23.7.200416:41
Jen malou otazku pro lamu: je mi jasne, ze cim vice pameti, tim lepe, nicmene da se nejak rict, jestli treba 128MB na graficke karte staci pro provozovani hry v rozliseni 1280x1024? Nebo jak rict, jestli je lepsi 6800 se 128MB nebo 5700 s 256MB? ­(coz jsou obe karty do 10tis bez DPH­). Takze jak se rozhodnout, cemu dat prednost?
Odpovědět0  0
wrah | 23.3.20057:27
Stačí cokoliv. Všechny dnešní karty jsou paměťově naddimenzovaný, spíš bacha na šířku sběrnice, abys nekoupil 64bit podraz..
Odpovědět0  0
xR-> | 2.5.200415:41
Je to tak, ale na druhou stranu koncepce NV1 byla naprosto odlisna od toho, co zname dnes. Ten cip dokonce ani nepracoval s trojuhelniky ­(pouzival nejake divne paramtericke povrchy­) a z­-bufferem. Takze prvni opravdovy 3d­-akcelerator byl NV3.
Odpovědět0  0
Diagon Swarm | 2.5.200418:50
Ano, je pravda, že se karta koncepčně dost lišila od toho co známe dnes, ale s ­"Její první 3D GPU byl vypuštěn ve třetím kvartále roku 1997 a jednalo se­ o Riva 128...­" prostě nemohu souhlasit. nVidia si s nV1 prošla trnitou historií, ale i přesto by neměla upadnout v zapomění.
Doporučuji o tom pročíst: http:­/­/www.firingsquad.com­/features­/nvidiahistory­/page2.asp

Teď mě jenom tak zaráží, že já jsem hrál i hry používající Direct3D v hardwarové módu. Je pravda, že to bylo o mnoho později, ale ten wrapper asi nakonec dodělali, i když s velkou ztrátou výkonu.
Odpovědět0  0
zombie | 3.5.200412:32
když už jdeš takhle do detailů, první GPU od nVidie byla GeForce 256, to předtím nebyly žádné GPU ;­-)
Odpovědět0  0
MatRio | 3.5.200414:41
Jo jo, pravdu dí chlapec zombíkovatá ­- trošku vás dostal:­-)
Odpovědět0  0
Diagon Swarm | 2.5.200414:33
"Její první 3D GPU byl vypuštěn ve třetím kvartále roku 1997 a jednalo se o Riva 128...­"

Tak tady bych si teda dovolil nesouhlasit. Už pořadové číslo nV3 u Rivy128 by mělo naznačovat, že nVidia v té době nebyla úplným nováčkem. První vypuštěným čipem nVidie, v té době ještě úplně neznáme značky, byl čip jenž nesl prostý název nV1 a pařil do první generace grafických 3D akcelerátorů určených pro běžný trh. Prodával se v kartách od mnoha značek, z nichž k nejznámějším patří asi Diamond. Nedivím se, že se s ním nVidia moc nechlubí, protože se rozhodně nejednalo o žádný zázrak; na VESA podporu byl potřeba TSR program, měl problémy s některými pokročilejšími 2D funkcemi v DOSovských hrách. Z pohledu 3D výkonu se jedná taky o slabší čip. V Chip testu 1­/97 ­(+­- mozná nějaký měsíc­) se karty s tímto čipem umístily na posledních místech. Čip dokonce ještě neuměl ani funkce jako korekce perspektivy nebo třeba filtrování textur ­(!­). nVidia ho dodávala dohromady v setu se slušným dvoukanálovým zvukovkovým čipem ­(s měnitelnou wavetable syntézou­) a 10Mb ethernetem.
Abyste neřekli, že tady plácám nějaký haluz, tak jsem jí pro vás i vyfotil. Najdete jí na [odkaz, pro zobrazení se přihlaste] ­(jedná se Diamond Edge 3D 3240 2MB RAM­)

BTW: Sorry Zdeňku, mohl jsem ti to říct někdy až tě zase ráno potkám na nádraží, ale mně to nedalo :­-)
Odpovědět0  0
notimetodie (1) | 26.4.200414:20
newite nekdo kde by se dala u nas koupit GeForce 6800 Ultra???
dik
Odpovědět0  0
Sprymar (16) | 20.4.200412:38
hm hm pekne
Odpovědět0  0
Kuna | 19.4.200423:01
koukal sem na to video..........
to snad neni pravda. To bude stat uz nekoho zivot.
naprosto dokonaly. neskutecny ta zed....
paneboze
Odpovědět0  0
-ItchY- | 18.4.20049:44
http:­/­/home.online.no­/~sanbjoe­/nv40­/unreal3_0002.wmv

tak TOHLE jestli se dostane na monitory... tak KONCIM s pchrama! Dyt bych se z teho zblaznil! Nevim, ale DOOM3 je proti tomu sracka!

-ItchY­- Has Spoken
Odpovědět0  0
Sajgon (54) | 19.4.20049:21
jo da se to:)
Odpovědět0  0
neoofru | 23.3.20051:27
Tak tohle se musí dostat na herní trh to bude bomba o tom sem jen snil a je to tu realita ve hrach.BOOOMBA
Odpovědět0  0
loki666 | 15.4.200422:39
>>A nevíte jestli nový RADEONi budou podporovat DirectX 9.0c, respektive všechny funkce jako >>tahle GF

R420 ­- nebude podporovat PS 3.0 tj DX9.0c
Odpovědět0  0
Tomáš Kolařík | 15.4.200421:13
Podle toho co píšete na konci článku asi nemá cenu doufat, že aspoň neultra verze sleze do poloviny června aspoň na 240 dolarů? Co?
A nevíte jestli nový RADEONi budou podporovat DirectX 9.0c, respektive všechny funkce jako tahle GF.
Odpovědět0  0
Spete (17) | 5.5.200410:06
Muzu Vas uklidnit, ze cena za Ultra verzi se bude pohybovat okolo 18.000 s DPH, nVidia trosku nezvladla ceny. Nikde ve svete nebudou za avizovanou cenu, ale vyznamne vyssi.
Odpovědět0  0
aless (18) | 15.4.200418:26
Už se těším na NV50 či jak to bude nVidia pojmenovávat, NV30 se oběvila zhruba před rokem tak jestli bude NV50 zas o tolik lepší tak to bude mazec navíc ATI myslím prohlásila že novou generaci svých čipů bude produkovat každý dva roky tak tempo nvdie nemůže stíhat. no ono se to stejně něak vyvrbí a nakonec budou ty karty stejně výkoný jako je AMD a Intel a budem za to rádi:­-)
Odpovědět0  0
GiGi | 15.4.200416:25
Myslím si, že právě ten výkon NV40 natrhne někomu prdel. To, že NV40 je bombou, svědčí právě testy na toms hardware. Vzhledem k tomu, že to jsou testy z her, tak je jasné, že NVIDIA se hodně polepšila ­(ikdyž já raději ATI­) a výkon v těch hrách je skutečně brutální. Slepí snad nejste, tak si to přečtěte. Anglicky taky umět nemusíte, protože je to v grafech
Odpovědět0  0
komisar_durex (53) | 15.4.200412:07
Nevim ale NV40 nebude takovou bombou.....a jaksi ­"nenatrhne­" ati ­"prdel­" jak se cekalo.....dokonce si troufam tvrdit...ze ati z toho opet vide lip.....jen moje domenka..uz setesm az se srovna vykon NV40 a R420:o­)­)....
Odpovědět0  0
Liwee | 15.4.200410:09
Me to nechava v klidu, samosebou jak cas, trh a technologie jdou dopredu, vsechno ­(vetsina veci­) je lepsi kvalitnejsi, rychlejsi.
Kdyz se podivam na hry tak ani dnes nejsou plne vyuzity potencialy dnesnich grafickych karet a moznosti, ktere nabizi.
Je asi bozi mit kartu ktera zvlada shadery verze 3, a pak 3­/4 roku cekat na software ­(gamesy­) ,ktere ji vyuziji.

gl,hf
Odpovědět0  0
rime | 15.4.20042:54
hmm, v 3Dmarku 03 ­- 12000.Mam pocit, ze nova generace karet tenhle test uplne odrovnala a potvrdila, ze stoji za velky kulovy.
Odpovědět0  0
xR-> | 15.4.20042:19
Musim autora pochvalit za snahu, ale bohuzel se nevyhnul mnoha faktickym chybam. Zejmena strana popisujici pixel pipeline je jich plna.

­"Zde je přerušovaným obdélníkem naznačeno, že jedna shader jednotka je potřebná pro operace s texturami. Z tohoto právě vyplývá schopnost práce v módech 16x1 a 32x0. V prvním případě je standardně nanášena textura, zatímco v druhém, kdy není třeba texturu použít, je pixel pipeline schopna využít oba pixel shadery a vyrenderovat tak 2 pixely.­" ­- tohle je naprosty nesmysl. Rozdeleni na 16x1 vs 32x0 je pouze v ROP ­(spravne RASTER operations­) a jedna se o barvu a nikoliv texturu, ta s tim nema co delat. Se stencilem shadery vubec nepracuji, ten je hardwired. Ten obdelnicek jen oznacoval, ze prvni shader je mozne pouzit pro generovani texturovych souradnic. Jinak se jedna o dva seriove zapojene shadery, nic vic.
Mimochodem, 2 shadery za sebou mela jiz NV35, ale druhy nebyl schopny vsech operaci, takze ho ted marketingove zasklilo. V praxi je tedy vykon vyssi spis 4x nez 8x. Jinak ATi rozhodne neni schopna neomezeneho poctu instrukci v pixel­-shaderu, jak uvadite v tabulce. Takzvany f­-buffer je pouze podvod. Spravna hodnota je 96 resp. 160 ­(podle toho, zda pocitate co­-issue pulinstrukce­).
Odpovědět0  0
Zdeněk Kabát (474) | 15.4.20046:58
Na Vás jsem čekal :­-­) Měl jsem na přípravu článku omezený čas a takhle jsem to z původního textu pochopil. Tuto faktickou chybu opravím.. Pokud byste chtěl upřesnit další detaily, ocenil bych, kdybyste se ozval na mail z.kabat@svethardware.cz
Odpovědět0  0
Michaelxx | 15.4.20048:15
Pokud tomu nerozumíte, nepište o tom podrobně. Spousta lidí si myslí, že máte 100% pravdu, řeknou to dál, diskuze jsou pak plné omylů, atd. Doporučuji Vám přečíst si článek na http:­/­/www.3dcenter.de­/artikel­/nv40_technik­/index_e.php . Autor toho článku ­(na rozdíl od Vás ­- bez urážky­) ví, o čem píše.

Co se týče přetaktované paměti ­- ani to není 100% pravda. Někteří recenzenti měli kartu osazenou paměťmi Samsung 1,6 ns ­(což je 600MHz­).

S pozdravem ­- Váš čtenář.
Odpovědět0  0
11111 | 15.4.20041:44
No celkem slusny vykon uvidime co ati
Odpovědět0  0
Martin Štěpánek (439) | 15.4.20041:42
Jen bych rad podotkl, ze na serveru X­-bit labs se opravdu pekne rozepsali a na pripadneho ctenare tam ceka diplomova prace o 48 stranach!!
PS: kdo to ma cist??
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.