Programy od Adobe a grafika s Radeonem
Mám dotaz na všechny, kteří mají zkušenost s programy na zpracování videa od Adobe tj. především Premiere a After Effects a s jejich použitím ve spolupráci s grafickou kartou s Radeonem. Jak se tyto programy snáší při zapnuté akceleraci GPU s grafickými kartami od AMD? Jede to bez problému nebo je lepší použít grafiku od nVidie? Jak jsou na tom výkonově při použití v uvedených aplikacích - jede náhled v realtime i při použití složitějších a náročnějších funkcí?
Tak teď nevím, co se děje, resp. jaký si o tom udělat závěr. Že by žádný uživatel programů od Adobe nepoužíval grafickou kartu od ATI (resp. AMD)? Nebo i když ji používá, tak k tomu nemá co říct? :confused:
Z principu věci bych GeForce/Radeon, pokud jde o profesionální využití z toho vynechal a radši pořídil nějaké Quadro, míval jsem jí v práci a ikdyž to byl mezi Quadrama opravdu nižší série (nepamatuju si přesně model, bohužel) byla na základní patlání grafiky (jsem programátor, žádná velká věc) ve photoshopu a fireworks se mi jevila podstatně výkonnější než "pro domácí použití" grafické akcelerátory, které vsázejí spíš na surový výkon než na celkovou optimalizaci... Každopádně moc vám neporadím ohledně zpracování videa, s tím jsem zkrátka nikdy v práci nedělal, ale předpokládal bych určitou podobnost...
A ono vy jste hlavně hrozně špatně položil otázku... Není radeon jako radeon a stejnětak není geforce jako geforce...
A ono vy jste hlavně hrozně špatně položil otázku... Není radeon jako radeon a stejnětak není geforce jako geforce...
Co se týká Quadra, tomu docela věřím, že mohlo být v grafických aplikacích výkonnější, ale pokud se nepletu, tak patří taky mezi hodně drahé karty (já budu výkon grafiky využívat pouze pro domácí použití - home video).
Pokud bych měl svou otázku konkretizovat, tak se mi jedná o GeForce GTX 660 Ti a Radeon 7870 nebo 7950 (o těchto kartách uvažuji a právě jsem chtěl vysondovat, která z nich by lépe fungovala v aplikacích na zpracování videa).
Až teď jsem si všiml, že jsem toto téma založil ve špatné sekci (vhodnější by asi bylo v sekci grafických karet).
Pokud bych měl svou otázku konkretizovat, tak se mi jedná o GeForce GTX 660 Ti a Radeon 7870 nebo 7950 (o těchto kartách uvažuji a právě jsem chtěl vysondovat, která z nich by lépe fungovala v aplikacích na zpracování videa).
Až teď jsem si všiml, že jsem toto téma založil ve špatné sekci (vhodnější by asi bylo v sekci grafických karet).
Quadro má i "low end" alternativy - viděl jsem fakturu od té pracovní, stála necelé tři tisíce a byla to spíš mainstream než úplně nejnižší model... jistěže jsou i drahá quadra, ale to není pro běžné smrtelníky :)
http://eshop.kresan.cz/nvidia-quadro-410-512mb-ddr3-pcie-card-1x-dvi-i-dual-link-1x-display-port-dp-to-dvi-adapter-included-/product.aspx?id=388933
tohle je quadro 410 kterou jsem asi míval, ale vím že byly starší quadra 200 a ty budou znatelně levnější...
co se týče "supernových" GF a Radeonů tak vám vážně neporadím, mám stařičkou GF9800 a šlape jak hodinky, jen je trošku hlučná :) takže nemám důvod upgradovat :)
http://eshop.kresan.cz/nvidia-quadro-410-512mb-ddr3-pcie-card-1x-dvi-i-dual-link-1x-display-port-dp-to-dvi-adapter-included-/product.aspx?id=388933
tohle je quadro 410 kterou jsem asi míval, ale vím že byly starší quadra 200 a ty budou znatelně levnější...
co se týče "supernových" GF a Radeonů tak vám vážně neporadím, mám stařičkou GF9800 a šlape jak hodinky, jen je trošku hlučná :) takže nemám důvod upgradovat :)
Na nejaky quadro se vykasli.. pulka z nich je jen o jinem BIOSu.. a odpoved na otazku.. nevim moc co rict.. proste v preferencich vyberes GPU akceleraci a jedes.. funguje to..? no samozrejme ze ano.. jde to videt na nahledech a rychlosti jejich prekresleni..? ano.. jde.. jestli premiera zvladne realtime nahled nevim.. mozna bude zaviset na vykonu karty.. ocekaval bych ale spise ze to proste pojede.. tedy pokud se nebudeme bavit o 4k, 8k apod..
Mno, jestli to OP myslí s prací s videem vážně přijde mi to jako rozumná investice... kor když tohle quadro vs. nějaká novější GF/Radeon stojí cca stejně... jen říkám svůj názor po několika měsících na quadru, neříkám že je to neměnný slovo boží :)
sám používám sestavu viz podpis a to jak pro photoshop tak after effects oba cs6-závěr je asi takový
pro pracovní část je akcelerace s gpu zapnutá ale pro samotný finální rendering je jakkákoliv grafika včetně quadra nebo fire pro naprd nebot se rapidně snižuje kvalita videa,ostatně profesionální studia používají tzv render slave,mnoho pc s výkonnými cpu které se starají jen o render videa
takže rada-pokud to myslíš vážně tak raději hodně výkonný cpu,pokud to máš jen tak abys občas něco šoupnul na you tube tak ti bohatě stačí středně nadupaný herní pc cca za 15000.-
pro pracovní část je akcelerace s gpu zapnutá ale pro samotný finální rendering je jakkákoliv grafika včetně quadra nebo fire pro naprd nebot se rapidně snižuje kvalita videa,ostatně profesionální studia používají tzv render slave,mnoho pc s výkonnými cpu které se starají jen o render videa
takže rada-pokud to myslíš vážně tak raději hodně výkonný cpu,pokud to máš jen tak abys občas něco šoupnul na you tube tak ti bohatě stačí středně nadupaný herní pc cca za 15000.-
[QUOTE=Maxtor;527899]proste v preferencich vyberes GPU akceleraci a jedes.. funguje to..? no samozrejme ze ano.. jde to videt na nahledech a rychlosti jejich prekresleni..? ano.. jde.. jestli premiera zvladne realtime nahled nevim.. mozna bude zaviset na vykonu karty.. ocekaval bych ale spise ze to proste pojede.. tedy pokud se nebudeme bavit o 4k, 8k apod..[/QUOTE]
Já to právě za až tak samozřejmé nepovažuju (proto ten dotaz), vzhledem k tomu, že Adobe oficiálně karty ATI nepodporuje. Jak už jsem výše naznačil, jedná se mi o karty v ceně kolem 6 tisíc.
hugostieglitz:
Že se bude muset finální rendering provádět pomocí CPU, s tím jsem už smířený, ale jde mi právě o tu rychlost překreslování, neboť při stávající konfiguraci (kterou chci upgradovat spolu s garfickou kartou, viz. vedlejší vlákno) si při použití trošku složitějších efektů můžu jít udělat kafe, než se mi to na obrazovce překreslí.
Já to právě za až tak samozřejmé nepovažuju (proto ten dotaz), vzhledem k tomu, že Adobe oficiálně karty ATI nepodporuje. Jak už jsem výše naznačil, jedná se mi o karty v ceně kolem 6 tisíc.
hugostieglitz:
Že se bude muset finální rendering provádět pomocí CPU, s tím jsem už smířený, ale jde mi právě o tu rychlost překreslování, neboť při stávající konfiguraci (kterou chci upgradovat spolu s garfickou kartou, viz. vedlejší vlákno) si při použití trošku složitějších efektů můžu jít udělat kafe, než se mi to na obrazovce překreslí.
[QUOTE=hugostieglitz;527904]pro pracovní část je akcelerace s gpu zapnutá ale pro samotný finální rendering je jakkákoliv grafika včetně quadra nebo fire pro naprd nebot se rapidně snižuje kvalita videa,ostatně profesionální studia používají tzv render slave,mnoho pc s výkonnými cpu které se starají jen o render videa[/QUOTE]
Snizuje kvalitu videa..? Jako jak.. nastavis kodek.. das mu jasny bitrate apod. a renderujes.. snizeni kvality nebo cokoli, je proste nesmysl.. grafika jen pocita to samy co CPU.. to proc velky studia pouzivaj clustery je jen proto, ze je samozrejme vyhodnejsi resit 32 jader na CPC nekde v cloudu, nez mit nejaky slieny stanice s X grafikama a ja nevim cim..
S kvalitou videa to nema nic spolecneho.. bud mas penize a muzes si dovolit server, na ktery vypocty presunes (protoze ma samozrejme nejakou svou vypocetni silu), nebo tolik penez nemas a mas doma jednu stanici, na ktere si s vykonem pomahas grafikou s OpenCL..
Snizuje kvalitu videa..? Jako jak.. nastavis kodek.. das mu jasny bitrate apod. a renderujes.. snizeni kvality nebo cokoli, je proste nesmysl.. grafika jen pocita to samy co CPU.. to proc velky studia pouzivaj clustery je jen proto, ze je samozrejme vyhodnejsi resit 32 jader na CPC nekde v cloudu, nez mit nejaky slieny stanice s X grafikama a ja nevim cim..
S kvalitou videa to nema nic spolecneho.. bud mas penize a muzes si dovolit server, na ktery vypocty presunes (protoze ma samozrejme nejakou svou vypocetni silu), nebo tolik penez nemas a mas doma jednu stanici, na ktere si s vykonem pomahas grafikou s OpenCL..
tak to se pleteš,při použití gpu k finálnímu renderingu dochází ke ztrátě kvality a to o dost,nehledě že některé často používané pluginy třeba od videocopilot dokáže gpu doku..it dokonale
najdi si v tomto vlákně můj příspěvek s fotkama a uvidíš to sám
https://www.svethardware.cz/forum/showthread.php/71238-pc-na-strih-full-hd-videa-ze-zrcadlovky-do-cca-23tis-kc-specha
najdi si v tomto vlákně můj příspěvek s fotkama a uvidíš to sám
https://www.svethardware.cz/forum/showthread.php/71238-pc-na-strih-full-hd-videa-ze-zrcadlovky-do-cca-23tis-kc-specha
No to se teda nepletu.. je tady balik dat ke spocitani a je uplne jedno, jestli na ne saha GPU nebo CPU.. nechapu, cemu vsemu jsou lidi vazne schopni verit.. to co jsi popisoval v odkazu nema nic spolecneho s renderingem, ale pouze s optimalizaci daneho plug-inu, ktery tam popisujes.. ten GPU render evidentne podela.. pripadne viz. bod 1..
1. Jediny dopad na kvalitu vysledku muzou mit DX pripadne OpenGL filtry, ktere visi nad videem a ktere si grafika prevezme na sebe a pocita je tak, jak sama dovede..
2. Nastaveni kodeku je jinak uplne ale uplne jedno, jestli ho bude pocitat CPU, GPU, nebo treba cip v PS3.. proste je to porad 1+1=2 a tim to hasne.. snad si nemyslis, ze ti v PC sedej nejaky skritci, kteri tam filtrujou a struhaj filmovy pas.. je to jen rada jednicek a nul a to, jak bude spocitana urcuje kodek a jeho nastaveni.. ne cip, ktery ho pocita..
1. Jediny dopad na kvalitu vysledku muzou mit DX pripadne OpenGL filtry, ktere visi nad videem a ktere si grafika prevezme na sebe a pocita je tak, jak sama dovede..
2. Nastaveni kodeku je jinak uplne ale uplne jedno, jestli ho bude pocitat CPU, GPU, nebo treba cip v PS3.. proste je to porad 1+1=2 a tim to hasne.. snad si nemyslis, ze ti v PC sedej nejaky skritci, kteri tam filtrujou a struhaj filmovy pas.. je to jen rada jednicek a nul a to, jak bude spocitana urcuje kodek a jeho nastaveni.. ne cip, ktery ho pocita..
Nedalo mi to, abych se s ostatními nepodělil o zajímavé výkonnostní testy grafických karet:
Test v různých programech
Test v Basemark CL při různých simulacích
Test v Basemark CL při obrazovém processingu
Test v Basemark CL při videoprocessingu
Na těchto testech mě nejvíce zaujalo to, že při operacích, které se obvykle dějí v různých střihových a postprodukčních programech vyniká platforma ATI s Radeonem, zatímco při nějakých syntetických testech vyniká platforma nVidia s GeForce.
To tedy fakt nevím, podle čeho se při výběru grafické karty řídit, když každý test označí za nejvýkonnější úplně jinou kartu.
Test v různých programech
Test v Basemark CL při různých simulacích
Test v Basemark CL při obrazovém processingu
Test v Basemark CL při videoprocessingu
Na těchto testech mě nejvíce zaujalo to, že při operacích, které se obvykle dějí v různých střihových a postprodukčních programech vyniká platforma ATI s Radeonem, zatímco při nějakých syntetických testech vyniká platforma nVidia s GeForce.
To tedy fakt nevím, podle čeho se při výběru grafické karty řídit, když každý test označí za nejvýkonnější úplně jinou kartu.
gpu je na "hrubý výkon" práci cpu nikdy nenahradí
a co se týče pluginů je pravda že optimalizací se dá udělat mnoho ale je to vždy a jenom kompromis buďto větší rychlost a nižší kvalita nebo naopak
a vědí to i profesionální studia která mimochodem nemají problém nakoupit třeba padesát nv tesla,ale nechtějí
a co se týče pluginů je pravda že optimalizací se dá udělat mnoho ale je to vždy a jenom kompromis buďto větší rychlost a nižší kvalita nebo naopak
a vědí to i profesionální studia která mimochodem nemají problém nakoupit třeba padesát nv tesla,ale nechtějí
[QUOTE=hugostieglitz;528082]..vždy a jenom kompromis buďto větší rychlost a nižší kvalita nebo naopak
a vědí to i profesionální studia která mimochodem nemají problém nakoupit třeba padesát nv tesla,ale nechtějí[/QUOTE]
A zase vedle.. :) ..studia, ktera to potrebuji a vyuziji si je klidne koupi.. ta ostatni pouziji distribuovane vypocty v cloudu.. proc..? no rozhodne ne kvuli nejake kvalite.. ano.. je to pouze proto, ze je to proste mnohem levnejsi.. teprve ve chvili, kdy potrebujes hodne vypoctu, ktere delas pravidelne a v dlouhodobem horizontu, ma smysl uvazovat o nakupu vlastniho serveru, ktery to bude resit.. jinak neni duvod..
ad. Ati / nVidia.. znamy letity fakt.. zatimco Ati technologie vyviji, nVidia je postupne kopiruje/dohani a doplnuje o sve novinky, ktere zase Ati nema.. leader v ramci profi prace.. ten, kdo vymysli jak to bude fungovat, optimalizovat se a pocitat, byla vzdy Ati a proto v realu funguje lepe.. snad je to dano i tim, ze nVidia prisla s OpenCL pozdeji, opet dohanela, a proto je komercni SW lepe optimalizovany pro Ati, protoze na to bylo mnohem vice casu a zacalo se s tim drive.. tezko rici.. na grafickou praci bych ale bral Ati, resp AMD.. vubec bych nevahal..
Na druhe strane je pravda, ze velke farmy operuji s nVidii a jejich Quadrem.. snad pro lepsi kompatibilitu ve smyslu vrstveni serveru a karet.. mozna je ono reseni lepsi z pohledu infrastruktury.. to ale jen hadam.. v pripade jedne karty na render pri praci doma napr. bych bral proste Atinu..
a vědí to i profesionální studia která mimochodem nemají problém nakoupit třeba padesát nv tesla,ale nechtějí[/QUOTE]
A zase vedle.. :) ..studia, ktera to potrebuji a vyuziji si je klidne koupi.. ta ostatni pouziji distribuovane vypocty v cloudu.. proc..? no rozhodne ne kvuli nejake kvalite.. ano.. je to pouze proto, ze je to proste mnohem levnejsi.. teprve ve chvili, kdy potrebujes hodne vypoctu, ktere delas pravidelne a v dlouhodobem horizontu, ma smysl uvazovat o nakupu vlastniho serveru, ktery to bude resit.. jinak neni duvod..
ad. Ati / nVidia.. znamy letity fakt.. zatimco Ati technologie vyviji, nVidia je postupne kopiruje/dohani a doplnuje o sve novinky, ktere zase Ati nema.. leader v ramci profi prace.. ten, kdo vymysli jak to bude fungovat, optimalizovat se a pocitat, byla vzdy Ati a proto v realu funguje lepe.. snad je to dano i tim, ze nVidia prisla s OpenCL pozdeji, opet dohanela, a proto je komercni SW lepe optimalizovany pro Ati, protoze na to bylo mnohem vice casu a zacalo se s tim drive.. tezko rici.. na grafickou praci bych ale bral Ati, resp AMD.. vubec bych nevahal..
Na druhe strane je pravda, ze velke farmy operuji s nVidii a jejich Quadrem.. snad pro lepsi kompatibilitu ve smyslu vrstveni serveru a karet.. mozna je ono reseni lepsi z pohledu infrastruktury.. to ale jen hadam.. v pripade jedne karty na render pri praci doma napr. bych bral proste Atinu..
[QUOTE=Maxtor;527954]je tady balik dat ke spocitani a je uplne jedno, jestli na ne saha GPU nebo CPU
je to jen rada jednicek a nul a to, jak bude spocitana urcuje kodek a jeho nastaveni.. ne cip, ktery ho pocita..[/QUOTE]
A to je právě ten rozdíl. Současné kodeky jsou stavěné pro CPU. Pokud to chceš počítat na GPU, či kalkulačce, musíš upravit styl zadávání úloh pro běh na dané architektuře. Pro stejný výstup různé cesty a která je efektivnější? V propojených snímcích např. H.264 vítězí CPU, protože GPU nemůže naplno využít paralelizaci výpočtů. A samotné výpočetní jednotky jsou pomalejší. Pro preview verzi videa s nižší kvalitou jde GPU použít, ale na finální enkoding s co nejvyšší kvalitou je stále lepší CPU.
Ty možná mluvíš o digitální animaci a výpočtu raytracing atd. tam samožřejmě GPU kraluje.
je to jen rada jednicek a nul a to, jak bude spocitana urcuje kodek a jeho nastaveni.. ne cip, ktery ho pocita..[/QUOTE]
A to je právě ten rozdíl. Současné kodeky jsou stavěné pro CPU. Pokud to chceš počítat na GPU, či kalkulačce, musíš upravit styl zadávání úloh pro běh na dané architektuře. Pro stejný výstup různé cesty a která je efektivnější? V propojených snímcích např. H.264 vítězí CPU, protože GPU nemůže naplno využít paralelizaci výpočtů. A samotné výpočetní jednotky jsou pomalejší. Pro preview verzi videa s nižší kvalitou jde GPU použít, ale na finální enkoding s co nejvyšší kvalitou je stále lepší CPU.
Ty možná mluvíš o digitální animaci a výpočtu raytracing atd. tam samožřejmě GPU kraluje.
Ty mluvis o efektivite.. o te jsem nerekl ani slovo.. je samozrejme, ze GPU nebude zvladat vypocet tak efektivne jako CPU.. to nikdo nepopiral.. ja reagoval na to, ze pri zapnuti GPU akcelerace jde dolu kvalita vysledneho videa.. tu ale udava kodek a jeho nastaveni.. ne jednotka ktera pocita, bez ohledu na jeji efektivitu.. ty rozdily jsou na hranici meritelnsti a je otazkou, jestli by nebyly stejne, pri dvou nezavisle spustenych encodech na CPU..
A ano.. pokud se nekde objevuji zmeny v kvalite, jde prave o rendering.. ne encoding videa apod.. v renderu se samozrejme uplatnuji funkce, ktere grafika umi a proto vysledky vypadaji na CPU / GPU jinak..
No to je jedno..v kazdem pripade jsme se tady bavili o vykonu a obecne tomu, co zvolit.. stav je takovy, ze treba prave H.264 koduje tak, ze mezi i5 a i7 prakticky neexistuji vykonostni rozdily.. to, co user dostane navic jsou desetiny, pripadne jednotky procent vykonu za desitky procent ceny.. nekdy i nasobky.. Inteli mainstream je v podstate to maximum, ktereho lze v domacich podminkach dosahnout.. je to smutne, ale je to tak.. pokud uz ma smysl jit na CPu encodingu nekam dale, tak jedine k druhemu CPU, pripadne serveru stranou a distribuovanym vypoctum, coz lecktere tyhle aplikace umi take..
A ano.. pokud se nekde objevuji zmeny v kvalite, jde prave o rendering.. ne encoding videa apod.. v renderu se samozrejme uplatnuji funkce, ktere grafika umi a proto vysledky vypadaji na CPU / GPU jinak..
No to je jedno..v kazdem pripade jsme se tady bavili o vykonu a obecne tomu, co zvolit.. stav je takovy, ze treba prave H.264 koduje tak, ze mezi i5 a i7 prakticky neexistuji vykonostni rozdily.. to, co user dostane navic jsou desetiny, pripadne jednotky procent vykonu za desitky procent ceny.. nekdy i nasobky.. Inteli mainstream je v podstate to maximum, ktereho lze v domacich podminkach dosahnout.. je to smutne, ale je to tak.. pokud uz ma smysl jit na CPu encodingu nekam dale, tak jedine k druhemu CPU, pripadne serveru stranou a distribuovanym vypoctum, coz lecktere tyhle aplikace umi take..