reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

Myslíte že AGP nahradí niečo iné?

dracik (3)|17.9.2006 21:44
Myslíte že AGP nahradí niečo iné? Myslím to tak že či AGP grafiky raz (v blískej dobe) zmiznú z obchodov.
Smeli (2302)|17.9.2006 22:13
[QUOTE=dracik]Myslíte že AGP nahradí niečo iné? Myslím to tak že či AGP grafiky raz (v blískej dobe) zmiznú z obchodov.[/QUOTE]

A PCIie je jen chabá a slepá vývojová větev...

Chlape, se zamysli - proč IBM skončilo s výrobou můstků PCIe -> AGP? Proč je čím dál menší počet grafik s podporou AGP? Proč se na novou MB nedávají AGP sloty?
dracik (3)|17.9.2006 22:40
[quote=Smeli]A PCIie je jen chabá a slepá vývojová větev...

Chlape, se zamysli - proč IBM skončilo s výrobou můstků PCIe -> AGP? Proč je čím dál menší počet grafik s podporou AGP? Proč se na novou MB nedávají AGP sloty?[/quote]
Všetci mi vravia že AGP je lepšie ako PCIe. A ešte niečo sa chcem spýtať, ako si si mohol všimnúť ohľadne HW som Lama tak sa chcem spýtať, či PCIe má samostatný vývod alebo je to zabudované do PCI.

Dík za odpoveď a dúfam že ťa zo mňa neporazilo.
mech13 (5526)|17.9.2006 23:03
[QUOTE=dracik]Všetci mi vravia že AGP je lepšie ako PCIe. A ešte niečo sa chcem spítať, ako si si mohol všimnúť ohľadne HW som Lama tak sa chcem spítať či PCIe má samostatný vývod alebo je to zabudované do PCI.

Dík za odpoveď a dúfam že ťa zomňa neporazilo.[/QUOTE]
vseci mozna driv rikali, ze jak se objevilo PCI-E, tak nema cenu prechazet - rozdil v propustnosti na vykonu nepridal a navic se karty delaly s mustkem AGP->PCI-E takze mohly mit dokonce nizsi vykon. tehda nemelo cenu jen kvuli PCI-E prechazet. ted, kdyz jsou karty primo pro PCI-E tak nema cenu se AGP vubec zabyvat, pokud nemate desku se slusnym procesorem a AGP slotem. nove PC=PCI-E
a ta druha cast: pokud dobre funguje ma kristalova koule, tak se ptate na fyzicky konektor na desce. je to tak? ten je uplne jiny nez stare PCI
dracik (3)|18.9.2006 18:18
Dikes
Frog (510)|18.9.2006 20:05
Ved už sa stalo nie ? Alebo PCI-Express nepočítaš ? V buducnosti sa ešte zvýši priepustnosť aj v PCI-E (32x), a čo bude nasledovať potom a čo poprípade nahradí PCI Express, tak to teraz neviem povedať, to je pre koncoveho uživatela ešte hudba blízkej buducnoti.
pegy (757)|18.9.2006 20:40
[QUOTE=Frog]Ved už sa stalo nie ? Alebo PCI-Express nepočítaš ? V buducnosti sa ešte zvýši priepustnosť aj v PCI-E (32x), a čo bude nasledovať potom a čo poprípade nahradí PCI Express, tak to teraz neviem povedať, to je pre koncoveho uživatela ešte hudba blízkej buducnoti.[/QUOTE]
Nuz ja cakam kedy na nas vybehnu s PCIe x 32 a moznost zapojit 4 VGA do systemu, ano da sa to uz dnes, ale je to drahe, zerie to jak svina a nevyplati sa to, mozno sa pojde cestou 2 a viac Cipov na doske (napr. n VIDIA GeForce 7950) a mozno sa ten system prerobi a na jednom PCB budu aj styry VGA cipy a ked spojite dve spolu, tak dostanete 8 cipov na VGA karte, no to som uz v roku 2012 :) AGP je mrtve, tak ako aj ISA slot, za nim nasleduju DDR moduly, postupne sa zacne nahradzovat aj PCI > PCIe 1x, 4x.... Nuz pokrok nezastavis ;)
Frog (510)|18.9.2006 20:55
[QUOTE=pegy]Nuz ja cakam kedy na nas vybehnu s PCIe x 32 a moznost zapojit 4 VGA do systemu, ano da sa to uz dnes, ale je to drahe, zerie to jak svina a nevyplati sa to, mozno sa pojde cestou 2 a viac Cipov na doske (napr. n VIDIA GeForce 7950) a mozno sa ten system prerobi a na jednom PCB budu aj styry VGA cipy a ked spojite dve spolu, tak dostanete 8 cipov na VGA karte, no to som uz v roku 2012 :) AGP je mrtve, tak ako aj ISA slot, za nim nasleduju DDR moduly, postupne sa zacne nahradzovat aj PCI > PCIe 1x, 4x.... Nuz pokrok nezastavis ;)[/QUOTE]

Zhrnul si to dobre. S tou spotrebou to mas pravdu, ale bude to asi aj horšie, dnes som cital ze nove jadra od ATI R600 budu mat v high endovych kartach spotrebu aj cez 250 W ! nVidia s NV80 je na tom podobne. Takže čo chvila, (ak s tym nieco neurobia) aby bol kilowattový zdroj povinnosťou
wizaard (913)|18.9.2006 21:00
[QUOTE=Frog]Zhrnul si to dobre. S tou spotrebou to mas pravdu, ale bude to asi aj horšie, dnes som cital ze nove jadra od ATI R600 budu mat v high endovych kartach spotrebu aj cez 250 W ! nVidia s NV80 je na tom podobne. Takže čo chvila, (ak s tym nieco neurobia) aby bol kilowattový zdroj povinnosťou[/QUOTE]
[OT]No... uff... :eek: Už teď se mi div nezastaví vždycky srdce při pohledu na účet za elektriku a to mám doma 2 PC (300W a 350W)... nějak si nedovedu představit, že by ten jeden měl 1000W... mehm...[/OT]
pegy (757)|18.9.2006 21:02
[QUOTE=wizaard][OT]No... uff... :eek: Už teď se mi div nezastaví vždycky srdce při pohledu na účet za elektriku a to mám doma 2 PC (300W a 350W)... nějak si nedovedu představit, že by ten jeden měl 1000W... mehm...[/OT][/QUOTE]
Nuz clovek uz musi pomaly sporit nie na nove CPU alebo VGA, ale na ucet za elektriku :(
Frog (510)|18.9.2006 22:17
už ked hovorime o spotrebe a uctoch za elektrinu
http://www.pcrevue.sk/buxus_dev/generate_page.php?page_id=42655

A ako tak pocitam tak priblizne za rok ma stoji elektrina ktoru odobera moje PC (300 W zdroj) okolo 3000 Sk. Ratam 6 hodinové denné používanie. Takže neni to až tak moc.
Smeli (2302)|19.9.2006 00:11
Jéje - to je zas řečí - a vy si myslíte, že by někdo vydal takhle žravou krávu? a pokud, tak to bude ostuda jako prase.

BTW. JSTE AŽ MOC OT
pegy (757)|19.9.2006 14:18
[QUOTE=Smeli]Jéje - to je zas řečí - a vy si myslíte, že by někdo vydal takhle žravou krávu? a pokud, tak to bude ostuda jako prase.

BTW. JSTE AŽ MOC OT[/QUOTE]
Sorry, ale uz to boli 4 VGA v jednom PC v SLI a malo to spotrebu ako hovado, PS uz su zdroje 1000W takze za OT by som to nepovazoval
citrax (10)|19.9.2006 15:20
mno panecku, za chilku budete potrebovat svarecak pro obsluhu pisidla :)
BTW: zpomente si jak dopadl Intel se svyma CPUckama a kde je ted...
Frog (510)|19.9.2006 17:54
[QUOTE=Smeli]Jéje - to je zas řečí - a vy si myslíte, že by někdo vydal takhle žravou krávu? a pokud, tak to bude ostuda jako prase.

BTW. JSTE AŽ MOC OT[/QUOTE]

No mensiu spotrebu nove karty mat ako tie dnesne hig endove ale mat určite nebudu. To by museli prakticky zmenit cele chystane jadro NV80 aj ATI R600. Proste mame sa na čo tešiť, v kulvároch sa píše že možno budu niektore karty od ATI až trojslotové !
Smeli (2302)|19.9.2006 18:00
OT to je jako blázen. Autor se ptal na něco absolutně jiného.

K té spotřebě: většina těhle "zatím bludů" pochází z The Inquier, o kterém je známo, že má zaručené informace až když se blíží uvedení karet na trh. Do té doby jsou to jen žvásty (např. asi měsíc před potvrzením informací o X1950xx ap ATi již měl TI tyto info k dispozici, před tím plácal taky bludy). Že by měli nové GK žrát víc než současný hi-end mi nepříjde rozumné z důvodu:
1) investice do chlazení
2) investice do napájení
3) výrobní postupy se zdokonalují a technologicky zmenšují
4) 95% uživatelů si hodně rozmyslí, zda koupit GK ke které je potřeba extra napájení atd. A těch 5% výrobní náklady nezaplatí
pegy (757)|19.9.2006 18:25
[QUOTE=Frog]No mensiu spotrebu nove karty mat ako tie dnesne hig endove ale mat určite nebudu. To by museli prakticky zmenit cele chystane jadro NV80 aj ATI R600. Proste mame sa na čo tešiť, v kulvároch sa píše že možno budu niektore karty od ATI až trojslotové ![/QUOTE]
To hadam nie, az tak zle to snad nebude, to by sme sa vratili do doby P4 Prescot a Intel by musel oprasit svoj format BTX :( Musime sa nechat prekvapit co nam nVIDIA a ATI navaria, mozno to pochopia podobne ako Intel a AMD a skor pojdu cestou vykon/W ako len vykon :)
Frog (510)|20.9.2006 00:29
Chvalabohu, inak aj 180 W je pekne velké číslo, dufam že to dostanu ešte menej. Ale v podstate som pravdu mal, nie ? Ide o to že pokles spotreby GPU nas v najbližšej dobe nečaká, ale vzhladom na adekvátny výkonostný nárast sa na to moc sťažovať nemožme.
Smeli (2302)|20.9.2006 00:59
[QUOTE=Frog]Chvalabohu, inak aj 180 W je pekne velké číslo, dufam že to dostanu ešte menej. Ale v podstate som pravdu mal, nie ? Ide o to že pokles spotreby GPU nas v najbližšej dobe nečaká, ale vzhladom na adekvátny výkonostný nárast sa na to moc sťažovať nemožme.[/QUOTE]


Jak to můžeš vědět? koukni na CPU... Postupy se zmenší a zmenší se i dle mého spotřeba, zatím to jsou ale jen spekulace
pegy (757)|23.9.2006 00:43
[QUOTE=Smeli]Jak to můžeš vědět? koukni na CPU... Postupy se zmenší a zmenší se i dle mého spotřeba, zatím to jsou ale jen spekulace[/QUOTE]
No spotreba ide dole, ale aj frekvencia.... Uz sme tu mali CPU nad 3 GHz a zas to padlo pod 2 (hlavne dve jadra) No pri VGA si to predstavit neviem, to by musel prist novy chip (jadro) prerobene od zaciatku... No neviem....
Smeli (2302)|23.9.2006 13:11
To teda nemám tušení na jakých frekvencích jedou C2D když jsou 65nm.

Btw je jasné, že frekvence už se zmenšováním tak nahoru nepůjdou, ale jsou tu i jiné věci, které dělají výkon, krásným příkladem je nová architektůra GK
pegy (757)|24.9.2006 12:45
[QUOTE=Smeli]To teda nemám tušení na jakých frekvencích jedou C2D když jsou 65nm.

Btw je jasné, že frekvence už se zmenšováním tak nahoru nepůjdou, ale jsou tu i jiné věci, které dělají výkon, krásným příkladem je nová architektůra GK[/QUOTE]
C2D slapu od 1.2 po 2.2 GHz asi, nie som si tym isty....
Smeli (2302)|24.9.2006 13:00
[QUOTE=pegy]C2D slapu od 1.2 po 2.2 GHz asi, nie som si tym isty....[/QUOTE]

E6300 - 1,86GHz
E6700 - 2,67GHz

OC ke 4GHz;)
citrax (10)|24.9.2006 15:06
Pridam se k vasi diskuzi, ktera sklouzla k procikum. Podle me (jak to tu nekdo nakousl) vyvojari musi vyspekulovat novou architekturu GPU, nebo grafikam v budoucnu dojde dech. Pak by mohli nekteri spekulanti zacit lidem podstrkovat, ze pri koupi grafiky bude referencnim chlazenim vodnik...
Netvrdim ze to bude hned, ale trebas za rok, dva ci vic.
pegy (757)|25.9.2006 22:36
[QUOTE=Smeli]E6300 - 1,86GHz
E6700 - 2,67GHz

OC ke 4GHz;)[/QUOTE]
Len dokedy im vydrzia tie 4 GHz....., Lebo by stacilo kupit aj E6300 a pekne ju nataktovat a super CPU..... NO ale intelu sa navrat podaril, to treba uznat, ale pokial ide o cenu tak AMD ma lepsi pomer cena/vykon.... AMD je lacnejsie.... Nuz, je to na kazdom komu viac fandi.... :)