reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
20.9.2007, Petr Papež, recenze
Trefou Světa hardware v minulém testu highendu byla NVIDIA GeForce 8800 GTS 320MB. Karta nabízí pěkný poměr cena/výkon, tichý chod a podporuje i nové rozhraní DirectX 10. Dnešní test se zaměří právě na tyto karty v podobě u nás běžně dostupných modelů.
LFR | 28.10.20078:15
ja se chci zeptat, pokud mi staci aa na 2x rozliseni maximalne 1280x1024 tak pro me nema smysl kupovat 640mb, ne??
Odpovědět0  0
merlin111 | 22.9.200721:27
nechci autorovy kazit jeho nadšení pro psaní těhle článků ale mám připomínky:

1.polymer je od slova polymerace většinou bývají výsledkem polymerace plasty. Tedy pokud je kondenzátor s tantalem ­/tantal je kov tudíž není dielektrikum­/ tak ho zpravidla nazvem tantalový. To je proto že existují kondy polyesterové, polystyrenové, polyamidové... co jsou všechno polymery. Myslím že je lépe používat názvy, které jsou již zavedené a nevymýšlet si nové technobláboly

2.digitální obvody jsou zpravidla odolné vůči rušení způsobeného zvlněním. Jak známo procesor pracuje jen se dvěma stavy: nula a jedna. Velké napětí znamená 1 a malé napětí znamená 0. Pokud rušení nepřekračuje hranici mezi 1 a 0 je prakticky nevýznamné. Jinak každého napadne co se stane když se v procesoru místo 0 objeví ­/cizím zásahem ­- rušením­/ 1 .

3. nějak nechápu měření frekvence zvlnění. pokud by to mělo být věrohodné tak bylo by lepší použít spektrální analyzátor. Myslím že u zvlnění stačí uvést jen jeho napěťové maximum a nepřeceňovat možnosti digitálního osciloskopu.

4. Nemyslím si že lze poznat pouhým pohledem špatný a dobrý návrh desky. Žádný výrobce určitě nesvěří jejich návrh člověku jehož kvalifikací jsou jen 3 roky průmyslovky.
Odpovědět0  0
Anunnaki (15) | 24.9.200710:25
Souhlas.
Odpovědět0  0
-HoNY- (136) | 25.9.20078:47
Dobré ráno, jak jsem psal kritiku vyžaduji ­- nic není dokonalé.
-­-­-
1. ad tantal, moje chyba.
ad polymer:
Podívejte se na zahraniční fóra věnované této problematice ­- jedná se o slangové výrazy. Dále doporučuji prohlédnout si datasheety zavedených výrobců kondenzátorů ­(Sanyo, Nippon­-Chemicon­). Pro výraz ­"Aluminium solid capacitor with conductive polymer­" neexistuje český ekvivalent a doslovné překlady se již v době brusičů Českého jazyka ukázaly jako nesmyslné ­(čistonosoplenka­) :­) Netvrdím, že můj výraz je správný. Pouze se toto téma snažím přiblížit širší veřejnosti. Vadí mi však, že každý kdo má s prominutím v pr*eli díru chválí svoje výrobky do nebes. Viz napřiklad Gigabyte, zastaralé série Chemiconů a běžné mosfety prezentuje jako úžasnou bombu, bez které se ­"megawoehustej kompl­" neobejde. Již DFI, Intel, Asus měl v roce 95 na svých deskách Chemicony a nijak se tím nechlubili. V roce 2000 začala 3Dfx používat na svých kartách SVP OS­-Cony. Až do roku 2002 se tím nikdo nechlubil, těžko říci kdo byl první. Pokud mě pamět nešálí poprvé se zmínila DFI ­- drobným písmem do rohu krabice o použití kvalitních japonských Chemiconů. V téže době také někteří výrobci desek začali prezentovat taiwanský Ostron ­(OST­) jako řešení problému vytíkajících kondenzátorů.
-­-­-
2. ANO procesor funguje i se 100mV zvlněním, ANO funguje a nevadí mu zvlnění pilovitého průběhu o frekvenci 100Khz. Cím vyšší frekvence tím lépe ­- k vyfiltrování stačí umístit keramické kondenzátory na zátěž ­(patice na procesor, procesor, FC­-BGA pouzdro, okolí paměti...­). ANO měření není zcela přesné protože na smyčku mezi zemí a měžícím pinem sondy byla 1cm vzdálenost.
Moje tvrzení jsou založeny na reálných pokusech s Epox EP­-8K5A2+ ­(legendární deska s KT333­) s Bartnonem 2500+ před kompletní výměnou kondenzátorů bylo zvlnění na CPU 120mV, paměti 35mV. Maximum desky bylo +­- 185MHz, 1.5GB paměti 2,5­-3­-3­-6 2T Dnes má deska na CPU 5mV a paměti kolem 2mV. Stabilní maximum se přesunulo na 205MHz 2­-3­-3­-6 1T, po výměně memory bufferu jde FSB až na 215MHz.
-­-­-
3. Jak jsem psal výše, měřil jsem jen tím, co mám k dispozici. Tzn. 30 let starý analogový osciloskop, kdybych měl tu možnost, byl by tu graf.
-­-­-
4. Je to bláhový předpoklad každého člověka, co tomu trošku rozumí. Asusu P5K kolísá VCORE, nedolíhají mu chladiče na mosfety. Proč myslíte, že deska XY má daleko nižší OC strop než deska ABC? Je to návrhem layotu, rozmístěním celoměděných vrstev, vedením napájecích cest mimo spínané části... Některé značky jsou populární jen kvůli slavné minulosti, ne kvůli kvalitě.
-­-­-
S přáním hezkého dne Jan Černý
Odpovědět0  0
merlin111 | 25.9.200723:04
Omlouvám se za mojí hrubou chybu hned v mojí první větě.

1. pro Aluminium solid capacitor with conductive polymer­" existuje překlad klasický hliníkový elektrolitický kondenzátor. Co je mezi hliníkem je obvykle přísně střeženo.
2. lepší kondenzátory = tvrdší napětí a tím lepší krytí odběrových špiček
3 Nějak mi ušlo že se jedná o analogový osciloskop ­- ­"Storage Ociloscope­", tím spíš, když byly frekvence udány na jednotky Khz, ale to nevadí. Jde o to že tyhle přístroje nepodchytí dostatečně přesně kmitočty nad 100 MHz , proto jsem mluvil o spektrálním analyzátoru. Těch 500 KHz je zřejmě pracovní kmitočet zdroje.
4. To jo, napřed ale testy a pak hodnotit. Měly by jsme asi odlišit návrh desky a použité komponenty. Nějak si nedovedu představit, jak páráš desku po jednotlivých vrstvách a počítáš Maxvellovy rovnice co se kde naindukuje. Jinak V core je zřejmě napětí jádra procesoru na mé desce s technologií Cool and Quiet kolísá od 1,18 do 1.5 V bez známky nějaké nestability Pravda non OC.
-­-­-
jinak je to docela zajímavý článek.
Odpovědět0  0
-HoNY- (136) | 26.9.20078:01
1.Měl jsem za to, že ­"elektrolit­" je ­"Elektrolitický kondenzátor s kapalným dielektrikem­"... rád bych jsem dal odkazy, ale je tu anti­-spam filtr, takže by příspěvek nebyl zobrazen :­) Ve velkém datasheetu Sanya je to pěkne popsané. Chemicon má i pár jednodužších vzorců.
-­-­-
Ono u nás sehnat literaturu, která se touhle problematikou zabývá je problém a pokud se něco objeví jsou parametry popsané moc obecně nebo částečně vynechány. Hledal jsem to v několika učebnicích elektroniky a knížkám věnovaným spínaným zdrojům.
2. Otázka je, co je lepší kondenzátor a jak je vhodný pro určité zapojení. Dneska vyrábí kondenzátory kde kdo a vyrábí je z kdečeho. Chtělo by to opravdu drahý LRCG můstek ­(200KKč+­), který umí měnit frekvenci od 100Hz do 1MHz. Nedokážu posoudit pravdivost údajů výrobce: ­"Na 100KHz je ESR 12mR, pro jiné parametry násobte podle přiložené tabulkny ­(společné pro všechny kondenzátory v datasheetu­) na str. xxx­" ... ­"A takhle nějak to je, a proto je náš produkt kvalitní­".
3. Možná jediný svého druhu v republice, jeden z prvních osciloskopů s paměťovou obrazovkou a navíc má proti tehdejším Tesláckým třetinovou hmotnost a poloviční rozměry.
4. Rád bych páral desku, ale to by šéfredaktor nepřežil. Stačí zběžné prohlídnutí. Kondenzátory blízko výkonové časti, tlusté jednolité cesty, mezi vedením jádra a pamnětí taženy země s jedním společným bodem ­(aby nevznikaly zemní smyčky­). Pamatuju si jeden AOpen, ketý měl v rohu desky ATX power konektroy a 12V taženo pod chipsetem. :­)­))
Odpovědět0  0
-mara- | 22.9.200712:07
tak nějak nevím jestli mám nějakou extra dobrou kartu nebo se tu někdo bál jít dál já udělal na Gainward BLIS 8800GTS 320MB Jádro:658 a Paměti:1872 a přetočeným Core E6750 na 3,62Ghz 3Dmark06 11 302 bodů a v základu nepřetočená šla jenom na 8905 bodů.
Odpovědět0  0
Petr Papež (215) | 22.9.200713:19
Frekvence 658MHz je velmi pravděpodobně ve skutečnosti 648MHz. Frekvence se nemění po 1MHz ­(i když to tak v OC programu vidíte, ale po určitých skocích. Po 648MHz je další, jestli si dobře pamatuji, 672MHz a to už bylo pro všechny karty příliš­). Takže na tom byla testovací karta stejně. Paměti šly pravda jen 1800MHz, což je kusová záležitost. Stejné paměti šly na jiných kartách i přes 2000MHz. Máte o něco vyšší výkon po OC, ale to je způsobenou jinou sestavou a vyšším OC pamětí. Gratuluji k pěkné kartě ;­).
Odpovědět0  0
Ondra666 | 3.10.20079:24
Na Gainward nedam dopustis,sam mam tudle http:­/­/www.datapoint.cz­/produkt­/gainward­-vga­-n8800gts­/320­-ddr3pcie2xdvi­-tv­-500­/1600­/ a nedam na ni dopustit,cena super,pretocit de taky dobre,a zas takovej prachu aby mi nestihala zbytek kompu nemam,proste dobra karta,jeden den sem se rozhodl,a druhej den mi prisla z datapointu domu:)
Odpovědět0  0
Draken355 | 21.9.200710:58
Zdravím všechny, neznáte někdo grafiku point of view GeForce 8800GTS 320MB EXOver edition.Nikde jsem nenašel žádnou recenzi na ni, výkonem by měla převyšovat OSTATNÍ gts­-KY, ALE NEVÍM JAK SE CHOVÁ ve hrách, prosim Vás jestli někdo máte zkušenosti s toutou grafikou, můžete mi někdo o ní něco napsat? děkuji
Odpovědět0  0
Petr Papež (215) | 21.9.200711:13
Zdravim,
záleží za jakou cenu jí seženete a zda sám bude kartu taktovat. Přetaktovaná je slušně. Ano, všechny tyto karty v testu jsou pomalejší, ale záleží na ceně, za kterou jí lze sehnat. Rozdíl ve výkonu je v jednotkách procent ­(odhadem +5%?­). Jinak karta je stejná ­(používá také 1.1ns paměti­) jako většina dnes testovaných karet a tedy pokud budete sám taktovat, nemusíte vůbec platit nic víc za OC edici jako je tato.
Odpovědět0  0
-HoNY- (136) | 21.9.200714:29
Úplně nejjednodužším řešením je přefleshovat si PoW BIOS na libovolnou kartu z testu. PŘedpokládám, že karta má poupravené časování pamětí.
Odpovědět0  0
matrix8800 | 20.9.200710:31
Mám kartu od ASUSU a spolehlivě jede na taktech :670­/2100 takže je vidět že záleží hlavně na čipu a né na výrobci té karty.
Odpovědět0  0
jamh1 | 20.9.200710:09
Hlavním nedostatkem je na highendovou kartu relativně malá velikost video paměti. Především pak s ohledem na nejnovější DX10 s rozlišením vyšším než 1280x1024 a zapnutým vyhlazováním stran.

...mam 19LCD ­-pouzivam v hrach vyhradne nativne rozlisenie 1280x1024­- mala by teda 320MB verzia stacit aj do buducna?
ako je to s podporou DX10.1 u G800GTS ? ATI 2900 ho podporuju...
Odpovědět0  0
Petr Papež (215) | 20.9.200710:19
Těžko říci. Někdo bude tvrdit, že ne, někdo že ano. Záleží co je to do budoucna. Pokud chcete hrát na vyšší detaily hry i v budoucnu, bude vždycky lepší koupit výkonnější kartu. Záleží na tom, zda chcete dát o další 2000Kč navíc za dvojnásobek paměti. Zda se to vyplatí je na Vás. Momentálně není ­(podle mně­) výkonnostní rozdíl příliš velký, jak to bude vypadat v budoucnu samozřejmě vědět nemohu.
-­-­-
DirectX 10.1 ještě není venku a o žádné podpoře se tedy mluvit nedá ani u jednoho výrobce. Neberte výroky představitelů či CEO firem vážně. GF 8800 pořádně ­"nepodporuje­" ani DX10 ­(to že jej rozběhá je věc jiná­).
Odpovědět0  0
Herkis | 20.9.200711:27
P@pi: ­"GF 8800 pořádně ­"nepodporuje­" ani DX10 ...­"

Tohle na netu dost často čtu ­(píše to hlavně jistý DD­), ale můžete mi vy, jako odborník ­(narozdíl od DD­), prozradit, v čem ­"nepodporuje­" DX10?
Odpovědět0  0
DigitaldooM (137) | 20.9.200711:47
To si mám brát osobně? :­) Kdy už konečně pochopíte, že se vám nesnažím ani nemám zájem servírovat nesmysly ... V první řadě bych vám doporučil si udělat jasno, co je to vůbec DX10, co má přinést a co přineslo, kdy a za jakých okolností vyšla GF8 ­- pak pochopíte snadno ten zbytek ;­)
Odpovědět0  0
Herkis | 20.9.200712:11
Omlouvám se za OT.
1. Svůj dotaz jsem směřoval na recenzenta, pokud bych se ptal vás, šel bych na vaše stránky.
2. Pokud jste si přeložil DD jako svůj nick, je to váš problém.
3. Mám jasno v tom, co je specifikace DX10. Právě proto mne zajímá, v čem GF8800 nesplňuje nebo nepodporuje DX10.
Odpovědět0  0
PetFish (189) | 20.9.200712:28
No ja bych se DD ­(at uz je to kdokoliv­) zastal.
Pokud se ptate autora, tak ve Vasem prispevku je informace o tom co pise nejaky DD naprosto redundantni a tedy tam nema co delat.
Kdyz ji tam date, tak se nemuzete divit, ze nejaky DD si vezme prispevek osobne a bude reagovat ­(tim rikam, ze zcela nesouhlasim s argumenty 1+2­).
Osobne mam pocit, ze Vami uvadeny DD je skutecne DigitalDoom, a v tom pripade mi to zavani z Vasi strany pokrytectivm ­(za zady zautocit, tvari tvar rikat ja nic ja muzikant ... no treba se pletu­).
Odpovědět0  0
DigitaldooM (137) | 20.9.200713:00
Ten DD co máte na mysli jsem skutečně já, jinak bych se nehlásil ;)
Odpovědět0  0
Petr Papež (215) | 20.9.200712:49
Nejzřejmějším důkazem je FSAA. Zatímco HD 2900 XT provádí výpočet vyhlazování stran přes shadery, GF 8800 nikoliv. Specifikace DirectX 10 vyhlazování přes shadery vyžaduje ­(ale jak je vidět k běhu to nutně nepotřebuje, protože FSAA běží na GF8 pod DX10 bez problémů­). Jak píše Jan Stach, GF8 vyšla mnohem dříve než DirectX 10 ­(možná o půl roku?­). Více Vám neprozradím, nejsem programátor. Musel byste svůj dotaz směřovat na programátora se zkušenostmi s DX10.
-­-­-
Co se týče DX10 samotného, doposud je to zklamání. Pokud jsou mé informace správné, mělo DX10 zvýšit výkon při zachování stejné ­(nebo vyšší­) kvality jako DX9. Pravda je samozřejmě opačná. Doposuď DX10 hry nejsou ­(např. ani Crysis dle všeho není­), jsou to nativní DX9 hry s DX10 efekty apod. a ty prozatím mají nižší výkon v DX10 avšak kvalita obrazu je přibližně stejná.
Odpovědět0  0
DigitaldooM (137) | 20.9.200713:13
problém je ten, že neexistuje a ještě dlouho také nebude nativně DX10 hra, všechno nové stávající DX10 jsou jen předělávky DX9, i když zejménu UT3 enginy už jsou právě to: lepší detaily s nižšími nároky, problém je, že ty lepší detaily tam tak nějak v DX9 vs DX10 nejsou poznat :­) ... proč neexistuje DX10 hra? no, na čem ji také chcete vyvíjet, když většina her, které jako DX10 vycházejí nyní, se dodělávala logicky na GF8, která ty DX10 neumí pořádně ­(navíc tam plete nějaké neexistující SM 4.0, které proti SM3.0 nepřináší zhola nic ani detailnost ani výkon­), navíc je logicky GF8 dělaná více na DX9 a protože DX10 a DX9 potřebují diametrálně odlišnou stavbu jádra, tak nelze udělat grafiku stejně dobou v obojím­(špičkově dobrou­) a ATI R600 pro změnu vyšla s půlročním zpožděním, i když ještě nedávno většina R600 čipů na HD2900XT nesla výrobní datum Leden 2007! ... vývoj her nějaký čas zabere a když není DX10, či dokonce DX10.1 hardware jehož fragmenty už dokonce obsahuje R600, tak není na čem pořádně vyvíjet ... na nativní DX10 hry si ještě počkáme a to už nám oba výrobci slibují, že R700 a GF9 už budou DX10.1 ... vůbec bych se tedy uvahami nad DX10 nějak zvlášť nezaobíral zatím to je jen nafouknutá nepotřebná bublina DX10 dnes nikdo nepotřebuje stačí pořádně optimalizovat stávající DX9 engine, dejte tomu ještě rok a pak si o DX10­(DX10.1­) můžeme pokecat a zhodnotit jeho přínos pořádně ;­) ... Teď žádný DX10 neexistuje ...
Odpovědět0  0
Herkis | 20.9.200714:58
...nějaké neexistující SM 4.0..
Tady máte odkaz na stránky Microsoftu a jeho Direct3D10 i s jeho ­"neexistující SM 4.0­".
http:­/­/download.microsoft.com­/download­/f­/2­/d­/f2d5ee2c­-b7ba­-4cd0­-9686­-b6508b5479a1­/Direct3D10_web.pdf

Zbývající vaše ­(s prominutím­) bláboly nehodlám komentovat.
Odpovědět0  0
Herkis | 20.9.200714:20
Pokud vím, je ­"shader AA resolve­" součástí DX10 a tedy i nutnou podmínkou pro splnění DX10 specifikace. GF8800 umí jak ­"shader AA resolve­", tak ­"ROP HW ­(fixní­) AA resolve­". To druhé naopak neumí HD2900 XT ­(pravděpodobně měl umět, ale vlivem chyby v návrhu byla tato funkce vypnuta­). ­"Díky­" tomu má HD2900 pro hry, kde je postačující fixní ­"AA resolve­" tak velké propady při zapnutí FSAA.

Vytvoření specifikace DX není záležitostí okamžitou a pouze jen Microsoftu. Ta se vytváří i několik let a oba hlavní IHV ­- AMD ­(ATI­) i Nvidia ­- na ní spolupracují.
Jak píše pan Stach ­- že GF8 vyšla ­(cca 2 měsíce­) před DX10 ­- to je směšný argument. Oba hlavní výrobci ­(příp. další­), vytvářejí nový GPU několik let ­(v případě G80 to bylo tuším 4 roky­). Konečná specifikace DX10 jim musela být známá mnohem dříve ­- určitě více než rok před uvedením na trh.
Odpovědět0  0
jamh1 | 20.9.200714:44
tak teraz naozaj neviem­- na DX9 zrejme staci 320MB verzia ...ja AA ani nezvyknem pouzivat­(mam stary R9800,na ktorom mi uz napriklad nejde ani posledny Splinter Cell­-DA ani SH4,preto chcem do konca roka urobit novu zostavu­)­) a nemam pri hrani ziadne extremne poziadavky na detaily.
tych 1280x1024 stejne s mojim monitorom nema zmysel zvysovat
Odpovědět0  0
Petr Papež (215) | 20.9.200715:03
Omlouvám se za nařčení GF8, máte pravdu. Nedal jsem si dohromady 1+1.
"pravděpodobně měl umět, ale vlivem chyby v návrhu byla tato funkce vypnuta­", ale todle podlě mně nemusí být pravda. Kde jste to četl? Nikde nepsali o tom, že by R600 měla umět ROP AA resolven, nebo snad ano?
Odpovědět0  0
Petr Papež (215) | 20.9.200715:04
*resolve
Odpovědět0  0
Herkis | 20.9.200715:13
Tyto informace mám většinou z fora na Beyond3D. Psal jsem pravděpodobně, protože se jedná o dohady některých přispěvovatelů na uvedeném fóru. Je to poměrně logické ­- fixní resolve ­(použitelný u většiny DX9 a všech starších her­) je mnohem rychlejší a náročnost na počet tranzistorů v čipu není vysoká.
Odpovědět0  0
Herkis | 20.9.200715:20
Ještě doplním ­- jedná se už ale o čistou spekulaci: toto mohlo být jednou z příčin zpoždění R600, protože se vývojáři pokoušeli chybu odstranit minoritními revizemi čipu.

Jak to je doopravdy, se možná dozvíme časem.
Odpovědět0  0
Petr Papež (215) | 20.9.200715:22
Já vím co je to ROP AA resolve a jaké jsou jeho výhody. Právě proto mě překvapuje, že jej R600 nemá, což samozřejmě jasně vysvětluje ty propady ve výkonu. Ale stále nechápu proč jej nemá, že by udělali chybu? Spíš mi připadá, že ATI opět myslela až moc dopředu.
Odpovědět0  0
olsen (191) | 21.9.200717:16
Na druhous tranu, výkonostní propad v directx9 a hlvně staršíh hrách by Radeon 2900 neměl moc trápit... Ve většině těch titulů by měla rychlost stačit, a náročnost by měla stoupat hlavně s tím, jak se bude aplikovat directX 10. Nebo si to aspoň v ATi mysleli.

Souhlasím, že na vaší argumentaci něco je, ale pořád je to jenom dohad ­(jako můj­). I poměrně logické dohady jsou bez kouska fyzické indicie naprosto nepodložené.
Odpovědět0  0
Herkis | 22.9.20079:54
Je to dohad. Ale faktem je, že R6xx neumí fixní AA resolve.

A v čem nepodporuje G80 DX10 ­(o tom se kupodivu píše jen na českých webech­) jsem se zase nedozvěděl.
Odpovědět0  0
Petr Papež (215) | 22.9.200710:41
Jak jsem řekl. Doposud jsme si myslel, že G80 nepodporuje ­"shader AA resolve­". To samozřejmě není pravda. Běžně ho nepoužívá, díky tomu jsem o jeho činnosti nevěděl. V testu DX10 Call of Juarez jej však musí používat, protože tam je vyžadován.
Ještě jednou se omlouvám za mystifikaci. Nevím o ničem jiném, čím by G80 nesplňovala specifikaci DX10.
Odpovědět0  0
tomra | 16.10.200711:19
ja jsem to vyresil takhle: mam mesic stary komp s touhle grafikou Sparkle VGA nVidia CALIBRE P880LV GF 8800GTS, 320MB GDDR3 ­(580­/1780 MHz­)a zakladovku mam na 2 grafiky a nez bych ted dal zminovane 2000 navic si pockam minimalne pul roku a koupim druhou tu samou ­(ocekavam tak za 4000­) . Ale to je otazka­-komu se co vyplati ­(zivim se kontrukci ve 3D na svym kompu­)
Odpovědět0  0
Razor 1966 | 28.10.200716:46
Jedna otázka: pri SLI zapojeni sa zdvojnasobuje aj velost MB
Odpovědět0  0
cml11 (419) | 20.9.20079:17
Nějak mi chyběla část spotřeba, teploty, hlučnost.Jinak všechny karty si jsou opravdu podobné jak vejce vejci, takže by asi vážně stačilo testovat jen jednu..
Odpovědět0  0
Petr Papež (215) | 20.9.20079:33
Pravděpodobně jste nepochopil smysl testu. Toto není test NVIDIA 8800 GTS 320MB, ale provedení této karty od různých výrobců ­(stejně jako tomu bylo v případě testu GF 7600 GT­). Samozřejmě, že by nestačilo testovat jednu kartu. Dyť ty karty jsou odlišné v příslušenství, designu, pamětech apod. a to je to co se hodnotilo ­(a zjistilo, předtím jsem neměl tušení, že mají i téměř stejné paměti apod.­). Jde o test, který má pomoci při výběru této karty.
-­-­-
Spotřeba, teploty, hlučnost? Dyť jsou ty karty stejné. Pokud bych tyto hodnoty uvedl, okamžitě bych byl ­"ukamenován­" davem, protože jediné rozdíly by byly způsobeny pouze mojí chybou a chybou měření.
Odpovědět0  0
cml11 (419) | 20.9.20079:51
Nemyslíte že sám sobě v odpovědi odporujete?:­) Na jednom místě tvrdíte, že se karty liší designem ­(tedy myslím designem konstrukce jako např. zmíněných pamětí, přelepku přeci hodnotit nechcete­) a na druhém místě tvrdíte, že nemá smysl srovnávat vlastnosti které určitě nejsou při výběru nepodstatné, protože se karty neliší.Tak jak to vlastně je? Asi byste si měl vybrat:­)­))
Odpovědět0  0
Petr Papež (215) | 20.9.200710:12
Myslím, že nikoliv.
-­-­-
Ano, přesně tak, designem myslím samolepku. Konstrukce je stejná ­(použití jiných pamětí nemá na zbytek plošného spoje vliv, stejné filtry, stejné součástky­).
-­-­-
Druhou část věty dost dobře nechápu, je tam příliš ne ;­). Ale pokud jí chápu dobře, tak právě jediné rozdíly jsou ty ­"nepodstatné­" ­(bundle, paměti, samolepka­) a cena. Dle toho se také recenze hodnotila. Mám takový pocit, že jste recenzi asi ani nečetl... :)
Odpovědět0  0
-HoNY- (136) | 20.9.200710:14
Srovnávat jednotlivé modely mezi sebou nemá smysl. Daleko vhodnejší bude srovnání spotřeby proti konkurenci.
Např. X1950XT vs. 8800GT a pod.
-­-­-
Pokud se za pár týdnů rozhodne o poskytnutí další várky od jiných výrobců ­- hodnoty hlučnosti a spotřebu naměříme u jednoho kusu.
Odpovědět0  0
cml11 (419) | 20.9.200710:36
Papi: Recenzi jsem samozřejmě četl, nicméně jako vždy nečtu zcela vše, ale hledám si jen ty informace které mě zajímají. Tyhle mi prostě chyběly, tak jsem si dovolil upozornit. Vás opravdu zajímá hodnocení samolepky?! Jinak k té druhé části věty ­- dvě ne se negují navzájem, tedy jsem chtěl říct, že teplota a hluk je při výběru určitě podstatný. Pro někoho možná mnohem víc než frkvence pamětí. Např. já se rozhlížím po kartě do HTPC se kterou nebude problém dekódování 1080p signálu a zároveň bude pokud možno chladná a nehlučná..

HoNY: Alespoň jeden kus bude určitě vhodný. Díky.
Odpovědět0  0
Petr Papež (215) | 20.9.200711:01
Ne nečetl :D. ­"Vás opravdu zajímá hodnocení samolepky?!­" Ne nezajímá. Já jen píšu, že je to rozdíl a s tím se nedá nic dělat. Jak je v článku napsáno, zda se Vám líbí nebo ne je na Vás. Karty dle toho hodnoceny nejsou. Pokud by jste četl závěr, zjistil byste, že nakonec jediným hodnotícím kritériem byla cena. Ale to neznamená, že si někdo nemůže vybrat BFG kvůli triku, Gainward kvůli PowerDVD či Leadtek kvůli plechovému krytu a z tohoto důvodu také tento test vyšel.
-­-­-
Že se negují dvě ne vím, ale stejně mi to nějak nedávalo smysl, to bude to ráno ­(snad :­)...­). Teplota a hluk jsou samozřejmě podstatné parametry, ale stále nechápu kam tím míříte. Porovnání hluku­/teplot­/spotřeby u konstrukčně stejných karet je prostě nesmysl. Porovnání s jinými kartami bylo v minulých testech. Co tedy po mně chcete?
-­-­-
Děkuji za námitky. Nesnažím se s Vámi hádat, jen Vás nechápu ;­).
Odpovědět0  0
cml11 (419) | 20.9.200711:29
Jednoduše chci vědět, jestli tahle karta topí a dělá hluk. Co se týče hluku tak to zřejmě není tak zlé, to jsem vyčetl, teploty jsem ale nikde nenašel. Také není patrné jestli je ventilátor regulován podle teploty, něčeho jiného, nebo jsou jeho otáčky fixní. Prošel jsem si teď minulý test High­-End karet, tedy jediný na vašem serveru kde bych asi tak mohl informace ohledně teplot 8800 GTS očekávat a ani tam jsem nějak nepochodil.Třeba špatně koukám, pokud ano, tak se velmi omlouvám, ale prostě jsem nic nenašel.Klidně mi sem dejte link a já budu spokojen:­)Vřelé díky
Odpovědět0  0
Petr Papež (215) | 20.9.200713:13
Konečně jsme se dostali k jádru věci :­).

Teploty jsou k dispozici zde v tabulce ­(ke konci kapitoly­):
http:­/­/www.svethardware.cz­/art_doc­-5F886F8445E2ACC5C12572FE004997BF.html
Odpovědět0  0
cml11 (419) | 20.9.200713:29
Díky, přesně toto mi scházelo. Omlouvám se za zbytečně dlouhé vlákno:)
Odpovědět0  0
-HoNY- (136) | 20.9.200714:51
Co se týká regulace ventilátoru, lze nastavit pomocí Riva Tuneru.
Odpovědět0  0
Bohumil Stejskal (42) | 20.9.20078:51
FOXCONN Geforce 8800GTS, 320MB GDDR3, Vista, HDTV­-out, overclocked nebo SPARKLE GeForce 8800GTS, 320MB GDDR3, 2xDVI, HDTV, PCI­-e
Odpovědět0  0
Petr Papež (215) | 20.9.20078:55
Snaha byla, ale tyto karty jsou špatně k dostání. Karet mělo být více, ale jejich doba doručení je tak dlouhá, že se nakonec žádné další karty ­(Sparkle, POV, Foxconn, eVGA apod.­) nekonaly.
Odpovědět0  0
tomra | 16.10.200711:08
ja mam tuhle grafiku: Sparkle VGA nVidia CALIBRE
P880LV GF 8800GTS, 320MB GDDR3 ­(580­/1780 MHz­)
A fakt jsem se tesil,ze najdu alespon jeden test tehle grafiky.
Jestli nekdo na nej narazili ­- poslete mi pls odkaz na mail. dik
Odpovědět0  0
cml11 (419) | 16.10.200711:25
Odpovědět0  0
tomra | 16.10.200711:31
tak jasny... bohuzel jsou tu mezi nami i nevzdelani,kteri umi jen nemecky :(
Odpovědět0  0
cml11 (419) | 16.10.200712:05
Aha, tak to me opravdu nenapadlo.Pak muzu doporucit zkusit aspon kostrbate prelouskat s pomoci google translatoru z anglictiny do nemciny. Jinak pokud muzu strucne prelozit par poznatku ze zaveru ­(vic nemam cas cist, je to dost obsahle­), alternatitivni chlazeni prineslo proti standardnimu samy minusy jako vetsi spotrebu, vic tepla, hluku, vetsi mechanickou konstukci a tedy zabrani dalsiho slotu. Limity pretaktovani se nelisi od standardnich modelu.na druhou stranu je pry karta nejlacinejsi ze standardne pretaktovanych edic 8800GTS, takze z tohohle pohledu to pry neni spatna volba.No, ja bych si ji nevybral, ale to je vec kazdeho..
Odpovědět0  0
PetFish (189) | 20.9.20078:05
Nekde jsem narazil na informaci, ze karty rady 8800 nechava vyrabet primo nvidia a vyrobci uz jen delaji drobnosti jako potisk nebo vymenu chladice, upravy biosu a tak. Muze to nekdo potvrdit nebo vyvratit ?
Odpovědět0  0
-HoNY- (136) | 20.9.20078:20
Je to možné, u ­"vlajkových lodí­" se kvalita velmi hlídá.
-­-­-
Hi­-end desky s nForce chipsety vyrábí eVGA.
-­-­-
Vzpomeňme si například na dobu Radeonů 9700­/9800 jediný odlišný model vyráběli Herkules ­(vlastní layout, chlazení zadní strany­) a Triplex ­(ref. PCB potažené vrstvou stříbra­).
Odpovědět0  0
zklamaný | 20.9.20075:41
To jste dělal tak dlouhý článek jen kvůli tomu, aby jste nám udělal průzkum trhu? To že nejsou všechny karty testovány s OC je obrovská škoda. Nebo to ­"Vaše srovnání­" měla vyhrát určitá karta?
Odpovědět0  0
Petr Papež (215) | 20.9.20077:54
Ano, je to průzkum trhu. Něco špatně?
-­-­-
Karty nejsou testovány s OC? Dyť to není pravda. Všechny karty prošli přetaktováním, ale jak minimálně jednou zmiňuji: elektronika je stejná, takže přetaktování jádra je spíše o náhodě a revizi. Za ­"náhodu­" nemůžu vinit výrobce, na to se na mně nezlobte. Paměti nejenže mají menší vliv na výkon, jsou u karet opět stejné. Hynix 1,1ns a Samsung 1,2ns jsou paměti na téměř stejné úrovni s podobným OC. Jak to tedy mám hodnotit? Výkon s OC je změřen v 3DMarcích, nic víc není třeba.
-­-­-
Spekulace o ­"podplacení­" apod. si nechcte pro sebe. V závěru je jasně odůvodněno proč a z jakého důvodu vyhrál Gigabyte. Vyhrála proto, že je nejlevnější a přitom na stejné úrovni jako zbytek testovaných karet.
-­-­-
Děkuji za námitky,
Petr Papež
Odpovědět0  0
-HoNY- (136) | 20.9.20078:15
Dobré ráno
-­-­-
Chápu Vaše rozhořčení ­- i mě chyběla v testu ManLi, Club3D, ECS nebo JetWay. Osobně by mě velmi zajímalo, jak se liší jejich osazení součástek od ostatních. Zkoumal jsem detailnější fotky zahraničních serverů, například ECS měla na své kartě osazeny kvalitní kondenzátory. V tomto případě Nippon­-Chemicon.
-­-­-
V této recenzi­/megatestu žádné rozdíly nehledejte, protozě až na použité paměti a revize jader tam jiné nejsou. Možná je dnes marketingový tah nVidie hlídat si kvalitu hi­-endu, což lze jen pochválit.
-­-­-
Necméně musím s Vámi nesouhlasit, pokud kritizujete přetaktování.
-­-­-
Dále bych uvítal nějaké nápady a návrhy k chystanému článku věnujícímu se VMODu. A samozřejmně nějakou tu kritiku na mojí stranu, nic není dokonalé a stále je co zlepšovat.
-­-­-
S přáním hezkého dne Jan Černý
Odpovědět0  0
IXOXI (25) | 20.9.200713:03
Možná by jste mohli v tom následujícim článku pomocí Nibitoru zjistit jak je to s tím nastavením napětí jádra. Třeba je jen ve 2D i 3D nastavené na stejné hodnotě a klesá jen kvůli většímu odběru.
A ještě bych měl otázku, jestli Leadtek opravdu dodává ke kartě ExpertTool? :­)
Popř. jestli někdo vymyslel jak by se dal změnit poměr frekvence GPU ku frekvenci shaderů? ­- Gainward GS zklamal :(
Odpovědět0  0
Petr Papež (215) | 20.9.200713:10
Ne nedodává, blbá CnP chyba. Díky za upozornění.
-­-­-
Poměr by se měl dát ­"snadno­" měnit flashem BIOSu, což je ale u zapůjčených karet trochu riskantní. Frekvence shaderů a jádra by měla jít nastavit nezávisle.
Odpovědět0  0
Turbo | 23.9.200713:49
No mě to vůbec zbytečný nepřišlo. Značně mi to ulehčilo práci s výběrem nové grafické karty. Podle dostupných technických parametrů jsem zvažoval koupit OC verze od Gainwardu, ale díky tomu, že má podtaktovaný PixelShader jsem zvolil OC MSI. Tím jsem si ušetřil čekání i případné sklamání. Takže díky za testík.
Odpovědět0  0
Mr.Tuvok | 23.9.200723:59
I podle me to neni zbytecne. Vybral jsem si ­(jeste pred prectenim tohoto testu­) taky GF8800GTS od MSI ­(OC­) a vidim, ze jsem udelal dobre :­-)
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.