Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
11.5.2012, Petr Štefek, recenze
Herních testů karet jsme už zde měli přehršel, a tak je čas zabrousit do trochu jiných vod. Dnes se budeme zabývat výkony současných GPU pod OpenCL a vyzkoušíme si řadu zajímavých benchmarků.
sdffffds | 7.6.201222:26
Proč to není zdůvodněno?
Odpovědět0  0
mpohanka (50) | 16.5.20129:04
Je to první test, kde konečně vidím jaké je zrychlení u nové PCI Express 3.0. Z testu je jasné, že dvojnásobná rychlost PCI Express 3.0 se vůči PCI Express 2.0 nekoná. Zrychlení o 50% ale určitě není na škodu.
Odpovědět1  0
jjjjjjjjj | 23.5.201220:24
Z testu žádné zrychlení díky PCI­-E není, takže jakých 50% ?
Odpovědět0  0
mpohanka (50) | 24.5.20128:47
Pozorný čtenář by zjistil, že v testu Sandra 2012 je pro grafiky s PCIE 3 rychlost přes 8000GB­/s a pro grafiky s verzí dva 2 se pohybuje rychlost někde v rozmezí 5000­-6000GB­/s.
Odpovědět1  1
mpohanka (50) | 16.5.20129:00
Škoda, že jste neměli možnost odzkoušet asi nejvýkonější Teslu od nVidie, která je právě určená pro tento druh nasazení. Výsledek by byl opravdu zajímavý, protože pokud porovnám pár parametů, tak i tuto Teslu by mělo AMD převálcovat.

AMD Radeon™ HD 7970 ­- nVidia Tesla M2090
264 ­- 177 GB­/s memory bandwidth ­(maximum­)
3.79 ­- 1.33 TFLOPS Single Precision compute power
947 ­- 665 GFLOPS Double Precision compute power
3 ­- 6 GigaBytes

Jediný, v čem je Tesla lepší je dvojnásobná paměť.
Odpovědět0  1
Petr04 | 13.5.201214:36
Efektivita výpočtů pomocí GPU je úžasná a je vidět, že výkon procesoru tu hraje jen nepatrnou roli. CLbenchmark jsem spustil na sestavě se stařičkým a dýchavičným procesorem Intel Dual­-Core E5200 2,5GHz za 1600,­- Kč a s kartou AMD HD7970 a rozdíl ve skore testu Raytrace byl jen pouhých 5% ­(258 800 vs. 272 456 bodů­) proti v testovací sestavě použitému extrémně drahému procesoru Intel IvyBridge i7­-3770K za 8 000,­- Kč :­)

To bude asi znamenat konec drahým procesorům, vždyť i takový Bulldozer FX­-8120 za 3500,­- Kč se pak výkonu extrémně drahého Intelu i7­-3770 vyrovná, nebo bude mít ještě výhodu v možnosti využití dvojnásobného počtu jader a dvojnásobné paměti cache.
Odpovědět0  0
bigless (91) | 13.5.201217:03
Jak velký by měl být rozdíl když je to test zaměřený striktně na výkon grafické karty. Tady mají nějaký obecný žebříček a můžeš tam nalézt i procesory a rozdíly mezi nimi.
Odpovědět0  0
bigless (91) | 13.5.201217:04
Odpovědět0  0
Petr04 | 12.5.20129:38
V CLbenchmark v Graphic Raytrace mi test hází výsledek 258 800 bodů ? Mám AMD HD7970, co je špatně ?
Odpovědět0  0
Petr Štefek (1098) | 12.5.201215:54
Netuším, je to nízký výsledek, který i podle stránek clbenchmark odpovídá spíše 7950. Ovladače?
Odpovědět0  0
Petr04 | 12.5.201221:33
Díky. Nemáte přehozené výsledky Raytrace ­- SPH Fluid Simulation ? Mám Intel E5200 procesor, proto ty nízké výsledky :)
Odpovědět0  0
bigless (91) | 12.5.201222:29
Mě tam vychází s OC HD7970 283 tis. Je to nějaké podivné. V tom fluid testu 13 tisíc něco což je oproti stotisícům v grafu trochu jinde. Ovladače CC 12.4. V Luxmark Room scene 1100. Nechápu.
Odpovědět0  0
bigless (91) | 12.5.201222:35
Možná by bylo na místě překontrolovat zda jste přepisovali do grafů správné údaje.
Odpovědět0  0
Petr Štefek (1098) | 13.5.201211:09
Opraveno ... díky za upozornění
Odpovědět0  0
Petr Štefek (1098) | 13.5.201210:38
Projedu znova ..resetnu veskera nastaveni ovladacu a uvidime.
Odpovědět0  0
Petr Štefek (1098) | 13.5.201210:51
epic fail ... dal jsem do standardu výsledky po OC u celého CLbechmarku ... napravím
Odpovědět0  0
Petr Štefek (1098) | 13.5.201211:19
Ad Luxmark 2.0 Scene ... zkušebně jsem projel GTX580 a HD7970 a naprosto shodný výsledek ... podotýkám, že frekvence jsou na standardu a v případě Radeonu není ani povolený limit +20% pro nap. v Catalystech, to také ovlivňuje výkon.
Odpovědět0  0
bigless (91) | 13.5.201214:55
Ten Luxmark jsem zmínil jen jako měřítko a důkaz že problém není v podpoře OpenCL nebo u mě. Já ho mám na 1000­/5500 takže drobný nárůst odpovídá. Omlouvám se, že jsem tím zmátl.
Odpovědět0  0
bigless (91) | 13.5.201215:07
Ty 2tisíce ve fluid testu se dají vysvětlit. Pozoroval jsem spínání powerplay frekvencí a u mě je to dost lenivé. Z 300 to na 1000 skočí až po 1­-2vteřinách a s ohledem na fakt, že ten ten test trvá asi 5vteřin je to zkreslující. Právě pro délku testu měli dát vývojáři na začátek nějakou výpočetní rutinu, která by jen zvedla pracovní frekvence.
Odpovědět0  0
Petr Štefek (1098) | 14.5.201220:55
KOukal jsem také a v tom opravdu může být ten příslovečný zakopaný pes ... 2s je moc .. co vyhodnotit třeba hned druhý run benche?
Odpovědět0  0
Burney (50) | 11.5.201217:37
Byl jsem zvědavej jak si povede pro porovnání moje ATi 4770 750MHz, 512MB GDDR5 800MHz, Catalyst 12.3...

GP Processing ... nemáte ty hodnoty náhodou v grafu prohozený?
Float ­- 920 MPix­/s
Double ­- 207,92 MPix­/s
Crypt
Enc­/DE AES256 ­- 1,17 GB­/s
Hashing SH A256 ­- 0,896 GB­/s
Mem
Internal 4,894 GB­/s
Data transfer 1,957 GB­/s

.... zvláště ty poslední čísla jsou tragický. A jak je možný, že mi Sandra cpe že má grafika pro OpenCL jen 256MB GDDR5 RAM :­-­( Za to přeci 2 monitory moct nemohou.

Jinak CPU Phenom II X3 2,8GHz, 12GB DDR3 RAM @ 1,33GHz
Odpovědět0  0
Burney (50) | 11.5.201217:39
Jinak super článek. Konečně zas něco jinýho než herní testy.
Odpovědět0  0
Petr Štefek (1098) | 13.5.201211:09
Máte pravdu popisek v legendě byl obrácený ... double má logicky hodnoty nižší
Odpovědět0  0
Rafan (350) | 11.5.201212:31
Ta cena bude asi opravdu jinde a navíc platí že spotřeba jde ruku v ruce se zahříváním a tak budou i nižší takty.Dle mého pro pravověrného a nic jiného nedělajícího hráče je dnešní Kepler lepší volba.Pro lidi co mají i jiná zaměření pro domácí účely je volba karet AMD dá se říci jediné řešení a to i z důvodu budoucího vývoje softu.Profíci si počkají na nové jádro NV a pak se rozhodnou.Pro ně není cena podstatná protože jim jí zaplatí zákazník v podobě produktu na tom hardware vytvořeným.
Odpovědět0  2
JiVy (618) | 11.5.201213:03
Nechtěl jsem se pouštět do spekulací, ale určitě něco naznačuje to, že GK100 doposud nebyla oficiálně uvedena na trh. Lepší scénář by byl, kdyby to bylo kvůli tomu, aby karty na něm založené nekonkurovaly GTX 690. V tom případě by tyto karty byly i herní a tedy jejich ceny by mohly být ještě přijatelné.
Pokud by je nVidia postavila úplně mimo herní kontext, pak by jejich samotné ceny mohly přesáhnout cenu i hodně výkonného herního PC. Každopádně pro čistokrevné hráče je nejvýhodnější karta typu GTX 680­/670, která jim poskytne maximální výkon bez zbytečných přívěsků, které zvyšují spotřebu a ve hrách stejně nejsou využité. Problém ovšem budou mít uživatelé náročných aplikací, kteří si chtějí občas něco zahrát. Ti se budou muset spokojit s nižším GPGPU výkonem GK104 nebo finančně krvácet při koupi GK100. Pro ty by pak byly nejlákavější sočasné výkonné AMD.
Odpovědět0  0
Richmond (151) | 11.5.201212:16
Zdravím,
v grafech PS6 beta Vám chybí GTX680
Odpovědět2  1
Petr Štefek (1098) | 11.5.201213:51
Dobrý den, nechybí. Neudělala test a to samé platí i o jiné benchmarky, kde chybí. Dopíšu to do článku, nějak jsem to zazdil.
Odpovědět0  0
Richmond (151) | 11.5.201214:53
Jsem si právě říkal jestli mám dát do závorky, že chybí zmínka proč GTX680 chybí nebo ne ;­) Článek jsem četl, nekoukám jen po obrázcích
Odpovědět0  0
Hellghar (47) | 11.5.20129:53
Nechci bejt hnusnej šťoural, ale když jste recenzovali GTX680, tak byla podle Vás děsně über a super a mnohem lepší volbou ve všech ohledech, včetně výp. výkonu. Když někteří poukazovali na to, že 7970 má mnohem vyšší výp. výkon, tvrdili jste, že je to nesmysl..... Teď píšete něco jiného a i celkové vyzbńění Vašich hodnocení jsou spíše typu ­"vyrovnaný souboj­"....... Děcka, děcka...... :­-)
Odpovědět0  6
Petr Štefek (1098) | 11.5.201213:53
No ale jak jste si jistě povšimnul, tak zaměření testů je zcela opačné

hry=GTX 680
GPGPU= HD7970

celkově je výkon ve hrách v rozlišení +1920x1200+AA i v případě her velmi vyrovnaný, ale GTX 680 je přeci jen rychlejší.
Odpovědět0  0
Hellghar (47) | 11.5.201214:38
Re: karty nad 10tis | od: Pavel Kovač 29.3.201212:35
Cena není stejná. Rozdíl je cca 1000,?­- ve prospěch nVidia. To není až tak malý rozdíl. Navíc když vezmeme v potaz i jiné využití než hry, tak to opět hraje do rukou nvidii. Jeho CUDA se zkrátka používá a proč brát grafickou kartu, která je o něco dražší a nemá všechny funkce které mohu mít. Výkonově srovnatelná.
Z toho je jasný vítěz GTX 680.

konkrétně Vy:
Re: karty nad 10tis | od: Petr Štefek 29.3.201217:20
Pravda je taková, že Nvidie má nejvýkonnější kartu a zároveň levnější, než v případě Radeonu HD 7970 ... osobně se mi architektura GNC líbí mnohem více, ale my zde hodnotíme převážně výkon. Pokud hodnotíme GPGPU, tak co nabídne AMD? Nvidia bohužel mnohem více. Také 2560x1600 má GTX 680 o dost vyšší výkon ... kdo je tedy zmatený?

Mám pokračovat????
Odpovědět0  0
Petr Štefek (1098) | 11.5.201215:21
A tady vidíte, že i autor je člověka mění názor:­) ... ne vážně, AMD i Nvidia se shodují v tom, že OpenCL je cesta jak odstranit řešení jako CUDA svazaneho s konkrétním hardware. Chtěl jsem ti říct, že AMD v současné době krom obrovského potenciálu s GCN nemá fungující řešení jako Nvidia s CUDA. OpenCL řešení je ale prosazuje se pomalu ... na druhou stranu je to ­"dítě­" všech velkých hráčů jako je Intel, Apple, AMD nebo Nvidia.
Odpovědět1  1
Richmond (151) | 12.5.201211:10
Tady je pěkně vidět, že červení tohle prostě nechtějí pochopit. Ach jo, takhle top vypadá, že je příspěvek ­"nekvalitní­" a přitom je to pravda....
Odpovědět0  1
Pavel Matějka (1668) | 12.5.201215:19
Ale má, jmenuje se to AMD APP, dříve ATI Stream. Odborníci...
Odpovědět0  2
Petr Štefek (1098) | 12.5.201216:01
No o APP samozřejmě víme, ale kolik aplikací ji využije? Adobe Flash 10.1, PowerDVD a něco od Arcsoftu ... toť vše ... to se nedá moc považovat za konkurenční řešení. Jak je tom APP v oblasti profi aplikací ani nemá smysl zmiňovat.
Odpovědět1  0
Pavel Matějka (1668) | 14.5.201211:31
A programy od Xilisoftu, a DVDFab a... Já vím, je jich mnohem míň, než s CUDA, ATI s tímhle zaspalo dobu. No, stejně se bude houfně přecházen na OpenCL.
Odpovědět0  0
Petr Štefek (1098) | 12.5.201216:04
oprava PowerDirector a MediaEspresso
Odpovědět1  0
MickeyC (1) | 13.5.20127:11
Tak by me zajimalo jaky by AMD melo vykon v raytracingu.... Napriklad Vray prave vyuziva onen openCL.
Tak myslim ze by nemusel byt spatny test i s timhletim zamerenim. Navic pokud by se ten vykon opravdu projevil v takove mire, tak by pak stalo za to si tu kartu poridit. Mam 560Ti a velice to setri cas a to ma pouhych 384 CUDAcores. Tak by me zajimalo i srovnani s GeForce GTX 690 ktera je celkově poháněna 3.072 CUDA jadry. Uvazujete aspon o tom?
Odpovědět0  0
JoHnY2 (45) | 11.5.20129:21
Je pekne videt, ze AMD vazne moc chtelo novou architekturu, ktera by si dokazala ukousnout z podilu nV na trhu superpocitacu a specializovanych HPC serveru. Na OpenCL podpore pro HD7000 museli drit pekne dlouho aby jim chodilo takhle pekne hned po uvedeni karet na trh.

nVidia dokazala z Keplera vymlatit uzasnou efektivitu v DX­/OGL, ale docela by me zajimalo jak budou vypadat jejich Tesla karty. Myslim si, ze AMD v tyhle generaci nedozenou, protoze u hernich karet obetovali GPGPU parametry na ukor spotreby a pokud by chteli dorovnat DP vykon s AMD, tak se dostanou na stejny nebo spis o kousek horsi provozni parametry karty jako celku. A to maj starsi architekturu, uzsi pametovou sbernici a diky pridani GPGPU obvodu by nejspis neslo takovy chipy dobre provozovat na frekvensich jako GK104.
Odpovědět0  0
JiVy (618) | 11.5.201210:09
nVidia zatím představila pouze herní verzi Keplera a ta ve hrách funguje výborně. Zároveň se netajili tím, že všechno ostatní maximálně redukovali proto, aby snížili spotřebu a zahřívání.
GPGPU verzi Keplera teprve chystají a dá se čekat, že výkon bude úplně jinde. Bojím se ale, že to bude platit i pro jejich cenu.
Odpovědět0  0
Pavel Kovač (1033) | 11.5.201210:16
Bohužel mám podobný pocit. Myslím ­(opravdu jen moje domněnka­), že nvidia nastupuje opět výraznějšího rozdělení profi a herního segmentu. Budu opět kupovat Qadro? Možná...
Odpovědět3  0
Petr Štefek (1098) | 11.5.201213:54
Je to zřejmě tak, jak říkáte ... navíc podle designu čipu se dá usuzovat, že změna na výkonný GPGPU čip s vysokým výkonem v DP by nemusel být tak složitý.
Odpovědět0  0
Dalimil Novotný (77) | 11.5.20127:31
No, jestli se tu staví nejvyšší oDDborník, zamáčkne slzu dojetí... :­-D
Odpovědět5  10
Petr Štefek (1098) | 11.5.201213:55
Není mým cílem těšit určité skupiny fanoušků té či oné značky, ale spíše podívat se na věc pokud možno nezaujatě ..
Odpovědět7  0
Dalimil Novotný (77) | 11.5.201214:27
Nikdy by mě nenapadlo tvrdit něco jiného :­) Pokud z tohohle testu vychází lépe AMD, budiž. Nemám důvod testu nedůvěřovat.
Na tendeční recenze tu máme jiné weby. Viz potrefená husa ;)
Odpovědět1  0
-DD- | 11.5.201214:15
Co by mě na tom jako mělo dojmout? Ty se rozněžňuješ nad nějakým kusem křemíku, to je dost smutný. Pro mě je to jen produkt, já ho nevyrábím ani neprodávám, já ho stejně jako každý jiný jen používám. Když je dobrý, je to fajn, když ne, je to blbý ale ne pro mě :D. Ale mě na tom nijak nezáleží, já mohu mít co chci z těch produktů. Vždycky je na trhu něco lepšího než to, takže se dá vždycky dobře vybrat a žádné logo na čipu ti žádný lepší vlastnosti toho produktu nezajistí. Od začátku říkám ­(a nejen já­), že HD 7900 mají v současnosti lepší výpočetní výkon protože jsou to univerzální grafiky a konkurence v podobě GK100­/110 ještě nedorazila. Takže ty ­"oddborníku­", vážně nevím, co je na tomto faktu, který v této recenzi jasně a objektivně prokázali, tak dojemného. Každý slušný recenzent, který správně říkal, že je HD 7900 prostě výkonnější má zamačkávat slzu, proč?
Odpovědět4  2
Herkis (5) | 11.5.201216:59
Tohle mi nedá, na to musím reagovat. :­)

Nezajímají mě nějaké osobní rozepře, ale konkrétně ty na svém blogu neustále prohlašuješ jak tě zajímají uživatelské vlastnosti bez ohledu na logo výrobku. V případě HD7970­/50 opakovaně poukazuješ na výpočetní výkon, který ale v praxi není využitý ani využitelný.
Proč není?

Ačkoliv souhlasím s tím, že Tahiti ­(a GCN architektura obecně­) jsou univerzální čipy, které mají mít dobrý výkon ve hrách i pro GPGPU použití, chybí jim jedna velmi důležitá věc, a to je SW podpora od AMD, jako autora architektury. Touto podporou mám na mysli hlavně dobrý kompilátor, který umí maximálně využít architekturu GCN, rozsáhlou knihovnu funkcí optimalizovaných pro architekturu GCN a v neposlední řadě softwarový tým, který poskytuje přímou podporu třetím stranám při vývoji GPGPU aplikací. AMD ale nic z toho nemá, i pro svá CPU používá kompilátor konkurence nebo třetích stran.

Bez silné SW podpory je tento výpočetní výkon pouze teoretický, použitelný pouze pro benchmarkování a pár jednoduchých aplikací.V tomto krátkém článku je to krásně vidět:

Architektura GCN díky svému vysokému výpočetnímu výkonu válcuje všechno ostatní pouze v benchmarcích. V jediné praktické aplikaci ­- Photoshop CS6 nestačí ani na starou architekturu Fermi ­(navíc osekanou v DP­). Low­-endová Fermi GTX550 v této praktické aplikaci drží krok s mainstreamovou HD7850.

U Nvidie už pochopili, že nemá smysl mít jeden univerzální čip jak pro hry, tak pro GPGPU. Navíc v současnosti ho ani nepotřebují, protože objemy prodejů v profesionálních řešeních ­(Tesla a Quadro­) mají natolik velké ­(více než 90% pokrytí trhu­), že pro tento segment si mohou dovolit vyvíjet specializovaný čip. Pro herní segment už velmi efektivní čipy vydali. V nich nemusí být tak složité řízení SPs, cache, ECC apod. To jsou všechno věci, které zvyšují např. latence při přístupu do paměti, zvyšují plochu čipu atd., takže GK104 s 256bitovou sběrnicí bez problémů více než konkuruje širší ­(384 bitů­) sběrnici čipů Tahiti a díky menšímu čipu a jednodušší architektuře je nejenom efektivnější ­(výkon­/Watt­), ale při vyšší výtěžnosti výroby dosahuje i vyšších frekvencí a nižší spotřeby.
Odpovědět4  2
iojhf | 11.5.201219:16
Dobry den , jak je efektivni programovani v OpenCl pro Tahity. Myslite , ze Fermi je efektivnejsi ? Jak je CUDA na tom v porovnani OpenCl ? Problem je , ze cena Tesly je pro me vysoka a 580 ma nizky vykon v DP. Dekuji za odpoved.
Odpovědět0  0
Majko11 | 11.5.201219:44
Např. LuxMark je normálně naprogramovaný v OpenCL bez jakýchkoliv cheatů­/optimalizací ve prospěch AMD, takže si asi uděláš obrázek jak je na tom tahity s efektivitou v OpenCL. Nic lepšího zatím není a až nvidia s něčím lepším přijde ­(podzim?­), tak bych řekl, že to bude výrazně dražší.
Odpovědět1  0
Herkis (5) | 11.5.201220:15
Dobrý den.
Nepovažuji se za odborníka, který by mohl posuzovat efektivitu programování v OpenCL pro GPU od AMD nebo Nvidia. V poslední době se náš tým ­(aplikovaný výzkum­) zabýval v ramci přípravy nového projektu na výpočetní metody pro posouzení opticko­-estetických vlastností poměrně komplikovaných optických systémů ­(třeba šperkových kamenů se složitým výbrusem­) vlastním vytipováním vhodného SW a HW. Z toho pramení mé poznatky a zkušenosti ­- když to dost ­"brutálně­" shrnu, tak v současnosti je OpenCL vhodné jako ­"hračka pro studenty­", pro seriozní práci jedině CUDA. Pravděpodobně budeme používat prostředí LabView ­(vývojová licence za cca 5000$­), při využití GPU připadá v úvahu jedině Nvidia právě kvůli CUDA a vzhledem k potřebě výkonu v DP budeme potřebovat sytém TESLA.
Nechci Vás od ničeho odrazovat, ale obávám se, že pokud si budete vytvářet vlastní aplikaci s využitím OpenCL je i u Nvidia lepší podpora.

Jinak v článku zaznělo, že OpenCL je nezávislá na HW. To je jen částečná pravda. Vzhledem k rozdílnosti architektur AMD a Nvidia není možné udělat aplikaci, která poběží efektivně na obou architekturách. Vždy bude více efektivní na jedné nebo druhé, podle toho, na které architektuře ji autor ladil. Aby byla efektivní na obou, je v podstatě potřeba takovou aplikaci udělat dvakrát!
Odpovědět3  2
bigless (91) | 11.5.201223:38
Nevím jak si představuješ takovou podporu. Ve chvíli kdy se začne výrobce motat do vývoje nějakého standardu, celé to skončí u optimalizací pro danou platformu, popř. omezením funkčnosti výhradně pro svou platformu ­(viz. CUDA­). Co je představou každého programátora? Otevřený a funkční cross­-platform standard. Že k OpenCL nedostaneš manuál, klikací vývojový prostředí a poradce na telefonu je u takových standardů standard. Znesnadňuje to práci, ale použitelné to je. Nehledě na to, že se OpenCL stále vyvíjí.
Odpovědět2  1
Herkis (5) | 12.5.20120:22
Nemluvím o standardu. Mluvím o nástroji.

Sám to píšeš ­- ­"Znesnadňuje to práci, ale použitelné to je. ­"

Pro nějakou práci potřebuji vysoký výpočetní výkon, který mají gpu.
Nemám čas se zaobírat programováním nedokonalého nebo dokonce neexistujícího vývojového prostředí, to mi nikdo nezaplatí. Potřebuji hotový nástroj ­- co nejdokonalejší vývojové prostředí ­- abych se mohl zaměřit pouze na řešení vlastního problému. A v tom případě je mi úplně jedno, jestli se jedná o otevřený standard nebo uzavřenou platformu, důležitý je pouze výsledek.
Odpovědět2  1
webwalker | 12.5.20120:29
Dovolím si vaše tvrzení trochu korigovat. NVidia nevládne v HPC­(gpgpu­) díky tomu, že by Tesla ­(aka Fermi­) byl nějakým výpočetním trhačem DP výkonu, nebo CUDA nějakým zázrakem. Je to díky opravdu kvalitní podpoře a množství vývojových prostředků. On takový Fortran se svou přehledností zdrojového kódu a zápisem matematických výrazů je pro akademické a vědecké prostředí jako stvořen, tam se nikdo s Céčkem ­"párat­" nebude.
Na druhou stranu je tady však daleko větší trh komerčních aplikací, kde je cílem aplikace se dostat k co největšímu počtu uživatelů. Tento trh však nemůže nVidia se svým proprietárním systémem uspokojit a právě tento trh budou postupně zaplňovat aplikace vytvářené pod OpenCl, DC nebo C++AMP. Kdo by také vyvíjel komerční software pro nějaké malé procento trhu s nVidia gpu že.

Máte pravdu v tom, že aplikace vyvíjené pod OpenCl jsou samozřejmě závislé na architektuře hardware, nicméně ten největší rozdíl, který tu donedávna u gpu nVidia­/AMD byl ­(VLIW4­/5­) už AMD s příchodem GCN opustila.
To, že tyhle testy dopadly tak, jak dopadly není pžeci žádným překvapením. GCN je opravdu velmi povedená uarch a nVidia bude mít velkou honičku jí s velkým Keplerem v efektivitě překonat.
Já si na rozdíl od Petra Štefka nemyslím, že nějaká drobná úprava gk104 to vyřeší. Dle mého se musí zpět dodat HW sheduling, více multistream procesorů ­(SM­) s menším počtem CC­(DP capable­), navýšit bandwidth mezi SM atp. Tohle už s gk104 nebude mít imho mnoho společného.
Odpovědět5  0
Herkis (5) | 12.5.20121:13
S tím samozřejmě téměř naprosto souhlasím.

To, co píšete o komerčních aplikacích, je pravda, ale jedná se především o různé aplikace na úpravu obrázků, videí apod. Nakonec je tady v testu jedna z těchto aplikací ­- Photoshop CS, na výsledky se můžete podívat sám. Pravděpodobně v ostré verzi budou výsledky jiné, nepoužívá to DP, takže s novými ovladači to bude fungovat dobře i na GK104, výsledky GCN i starší architektury budou možná také lepší.

GCN architektura nebyla navržena jen pro tyto drobné komerční aplikace, ale primárně jako budoucí konkurence v profi segmentu ­(HPC­) ­- tam se ­"točí prachy­". A sám to píšete ­- je to právě o podpoře a množství vývojových prostředků. Takže já si též dovolím vaše tvrzení korigovat ­- i kdyby Big K nepřekonal GCN v efektivitě ­(nevím jestli máte na mysli výkon na plochu nebo na Watt­), rozhodně ji překoná ve výkonu a v SW podpoře. A jak jsem psal dříve, bez kompletního ekosystému nemá GCN šanci v profi sektoru něčeho výraznějšího dosáhnout a samotná kompatibilita s otevřeným standardem nestačí.
Odpovědět1  0
Webwalker | 12.5.201211:53
Tak, tak. malý Kepler určitě na gpgpu aplikace špatný nebude. Tyto aplikace však budou muset splňovat určité podmínky, jinak se jeho výkon propadá. Dle mého:
1. Nesmí být použito DP
2. Nesmí být realizována masivní komunikace mezi SM­(X­)
3. Pracovní workload aplikace by měl být podobný tomu grafickému ­(soft. sheduling­)
pak bude vše fajn.

GCN je výpočetně velice silná uarch, dle mého silnější nežli Kepler­/Fermi, ale v HPC se počítá přeci jenom s podporou a vývojovým prostředím. Tady imho AMD rezignovala a vše vsadila na OpenCl a softweare třetích stran. Pokud vím její softwareové aktivity se nyní točí převážně kolem architektury HSA ­(dříve FSA­), což je velmi zajímavá architektura, ale kdo ví, jestli s ní v budoucnu prorazí.

Velký Kepler by měl Tahiti výpočetním výkonem překonat, kdyby ne byla by to s jeho očekávanou velikostí a počtem tranzistorů velká ostuda.

Někdy mi přijde, že nVidia je spíše softwareová firma, než­-li hardwareová :­)
Dalo by se říci, že kdyby Kepler zachoval Hot­-clock ­(a sním spojenou delší pipeline výpočetních jednotek­), vlastně se proti Fermi nezměnilo nic a vše se točí kolem software jako Boost, AVSync, framerate limeter ...
Pardon, ještě jsem zapomněl na paměťový řadič, který byl konečně předělán a zdá se být opravdu dobrý.
Odpovědět2  0
JoHnY2 (45) | 12.5.20121:34
Bude zajimavy sledovat co obe firmy na poli GPGPU na konci roku vydoluji.

Mimochodem nema nekdo informaci o podpore DisplayPortu 1.2 u GTX6x0? Jde mi o to, ze AMD umi od HD6x00 identifikovat novy widegamut monitory a pripadne si s nima povidat az 12bit na kanal po DPortu. U nove generace nVidii se mi podarilo najit jen zminku o deepcolor a xvYCC pro HDMI, ale vic nic. Papirove maji podporu DPortu 1.2 a tim i 10­-12bitu na kanal a identifikaci widegamutu ­(pokud je monitor taky DP 1.2 kompatibilni­), ale nemam jak to overit.

Tahle moznost je dost vyznamna uspora pro lidi co chteji AdobeRGB monitor, vykonnejsi grafickou kartu a pritom nepotrebuji certifikaci driveru pro Autodesk, CATII a spol. AMD se tim u HD7000 docela chvastalo.
Odpovědět1  0
bigless (91) | 12.5.20121:19
Tak moment. V první řadě bych neřekl, že openCL je nástroj. Se samotným OpenCL nevystačíš. OpenCL je prostředek. Jakési rozšíření vyššího programovacího jazyka a pokud se nepletu, podporuje jich hned několik. To je docela liberální a když přihlédneme k pestrému repertoáru překladačů, nezdá se mi, že by vývojové prostředí bylo nedostatkem. Naopak. Poskytuje prostoru paradoxně více než CUDA.
Problém nastává až s dokumentací. To musí člověk trochu zapátrat, ale pokud zvládáš EN, knižních publikací i internetových tutoriálů je spousta.
Další věcí je potenciál. Výhledově je OpenCL podle mě cennější know­-how než CUDA. CUDA je živená marketingem. Kdyby ji nvidia netlačila dopředu, byla by dávno mrtvá a vývojářská základna OpenCL už mohla být dávno jinde. Mě se ty hry na vlastním písečku prostě nelíbí. Brzdí to SW­/HW rozvoj. Inženýři nvide a AMD asi u kulatého stolu hlavy dohromady nedají ­(pokud nedojde k akvizici­) a vlastně to po nich ani nikdo nechce, ale na nějakých základních principech a standardech by se shodnout mohli..
Odpovědět4  1
Webwalker | 12.5.201216:25
Dovolím si souhlasit :­)
OpenCl není o nic horší nežli CUDA, spíše naopak. Mě šlo primárně o uživatelskou podporu ­(konzultace, školení ...­), která je u CUDA na rozdíl od OpenCL dobře zaběhnutá a funguje ­(ale také si za to nVidia nechává dobře zaplatit­).

Jestli je­/byla CUDA brzdou vývoje OpenCl nevím, dost se toho v této souvislosti už napsalo. Každopádně to vypadá, že AMD má ve svých ovladačích podporu OpenCl vytvořenou lépe nežli nVidia ­(viz. i tyto testy­), což také o něčem vypovídá. Na druhou stranu se ale domnívám, že kvalita obecných ovladačů gpu je spíše na straně nVidie ­(pouze můj názor­).
Odpovědět2  0
bigless (91) | 12.5.201217:09
Dovolím si také souhlasit.
Je to logické. OpenCL není pro výrobce žádnej zlatej důl. Koneckonců tak je to se všemy otevřenými kódy. Konkrétně tato situace mi trochu připomíná Linux a Windows :­)

Ovladače jsou kapitola sama pro sebe. Koupil jsem 7970 krátce po uvedení. Na fóru EHW jsem zrovna rozmázl nedostatky. A není to architektura. Ta se jim vydařila. Jsou to právě ovladače. V recenzích se to člověk nedočte.
O žádné kritické chyby jako tomu bylo dříve už se nejedná, ale jsou to záležitosti, které člověku znepříjemňují práci..
Odpovědět0  0
Herkis (5) | 16.5.201216:48
Tak moment? ­- To si nerozumíme.

O nástroji jsem mluvil v souvislosti s prostředím LabView. Jaká je tam podpora CUDA a OpenCL? Potřebuji řešit problémy pomocí hotových nástrojů a ne programovat knihovny funkcí pro GPGPU. V tom okamžiku mi je k ničemu, že je OpenCL standard, když ho nemohu použít.

A že to brzdí SW­/HW rozvoj? Kde je dnes standard OpenGL?
Odpovědět1  1
gthgl | 8.9.201219:30
" tak v současnosti je OpenCL vhodné jako ­­"hračka pro studenty­­", pro seriozní práci jedině CUDA.­"

A proto se rozhodli v IBM implementovat na ­"velkém železe­" OpenCL a ne CUDA? Na vašem místě bych s výroky typu ­"X je hračka pro studenty­" byl hodně opatrný.
Odpovědět0  1
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.