reklama
Aktuality  |  Články  |  Recenze
Bleskovky  |  Doporučení  |  Diskuze
Grafické karty
Chlazení a skříně
Ostatní
Periférie
Procesory
Storage a RAM
Základní desky
O nás  |  Napište nám
Google News  |  Facebook  |  Twitter
Digimanie  |  TV Freak  |   Svět mobilně
Proč mít u nás profil?
29.6.2023, Milan Šurkala, aktualita
GeForce RTX 4060 byla dnes oficiálně představena a máme tu i výsledky recenzí. Karta je proti svému předchůdci výkonnější o necelých 20 %, což se předpokládalo. Dokáže překonat i Radeon RX 7600?
1  2  
unreall (440) | 3.7.202316:31
Ale veď nvidia už nejakú dobu predsa žiadne GK nepredáva. Predáva technológie a k nej pribaluje nejaký ten Hardware.

A každá ďalšia generácia bude samozrejme zvládať novú verziu DLSS, ktorá už ale nepojde na generácii predošlej… Pekne si to vymysleli a evidentne im to aj vychádza…
Odpovědět0  0
tombominos (1160) | 1.7.202313:26
Koukam, ze jak jablecny, tak ALU evangelista jsou tady v plne pilni :­))
Odpovědět0  0
kutil05 (677) | 30.6.202322:16
Mám tady něco pro Son_of_the_bit ale i další. Rozbor rozdílů a společných prvků procesorů ZEN 2, jsou tam i nějaké Intely a různých ARM. A dělali to s Jimem Kellerem. Někteří se asi budou divit.

https:­/­/chipsandcheese.com­/2021­/07­/13­/arm­-or­-x86­-isa­-doesnt­-matter/
Odpovědět0  0
Son_of_the_bit (961) | 1.7.202315:39
Chips&cheese tradičně kope do ARMu, to je celkem známá věc. Stačí si přečíst rozbor ARM Graviton 3 alias V1 jádra, které v IPC dorovnalo Zen 3.

To že vytrhávají z kontextu Kellerova slova, že na ISA nezáleží, aby v zápětí citovali Kellera jak říká že kdyby stavěl výkonný CPU tak by si vybral RISC­-V který nemá žádný historický balast. Takže vlastně na ISA záleží co? Ale ARM je fuj, protože je stejně starej jako x86 a má hromadu balastu.

Akorát zapomínají záměrně nebo z neznalosti, že 64­-bit ARMv8 je úplně nová ISA která je binárně nekompatibilní, používá jiné kodovaní Opcode, zahodila to zbytečné predikování větvení v Opcodu, to uvolnilo bity pro rozšíření registrů z 16 na 32 ­(mimochodem 32­-bit x86 má jen 8 registrů a 64­-bit jen 16­), používá jiné instrukce, a třeba už nemá Programm Counter namapovaný na GP registr jako to měla 32­-bit ARMv7. Shrnout se to dá slovy, že 32­-bit a 64­-bit ARM ISA jsou tak rozdílné, že v CPU musí být defaktro dva separátní dekodéry. To byla nevýhoda, ale dnes to umožnilo ARMu zahodit komplet 32­-bit a uvolnit tranzistory pro výpočetní jednotky a maximální výkon v 64­-bit. Ale tohle se tam samozřejmě nedočteš, že od X2 z roku 2021 už ARM má čistě 64­-bit jádra a 32­-bit zahodil do záchodu. Tohle x86 udělat nemůže protože 16­-bit 286, 32­-bit 386 i 64­-bit x86­-64 používá to samé binárně kompatibilní kodování. To byla výhoda protože to bylo zpětně kompatibilní a CPU nemusel mít zdvojené dekodéry, ale dnes je to koule na noze která nejde zahodit.

Další lži ohledne microOp cache, která od A77 až po X2 je i v ARM jádrech a má dokazovat, že dekodování ARMv8 je stejně naprd jako x86. Opět ti zatají, že nejvýkonnější ARMy, tedy ty od Apple nepoužívají microOp cache vůbec. Není to lež, ale úplně jasně to manipuluje a uvádí to čtenáře v omyl. Vrchol absurdity je, že X3 microOP cache zredukovala na minimum a nová X4 už žádnou microOP cache nemá vůbec po vzoru Apple.

A jako poslední věc je ten profesor z MIT na YT jak vysvětluje polynomickou explozi kombinací kterou trpí CISC x86, protože každá instrukce může být zakodována do 1 bajtu až max 15 bajtů. Matematika základní školy stačí na to, aby si člověk v excelu udělal tabulku kolik kombinací mám pro každou další instrukci kterou chci dekodovat paralelně. Dekodér pro 10 intrukcí­/takt musí řešit 639 různých kombinací kde ty instrukce od 2 až po 10 můžou začínat. A světe div se, ARM nemusí řešit žádnou kombinaci, proto každá instrukce má fixní délku 4 bajty. Chceš 20 instrukcí ­/ takt? Není problém, 20. instrukce leží přesně na 77. bajtu. U x86 může 20. instrukce ležet na 267 různých místech a celkově by CPU pro všech 20 instrukcí musel řešit 2680 různých kombinací. Je asi každému jasné že tohle není triviální problém už jenom proto, že inženýři musí plýtvat svým časem na řešení tohodle zbytečného problému místo aby makali na zvyšování výkonu.

A ty lži, že x86 může být stejně úsporný nebo dokonce ještě lepší než ARM to úplný vrchol. Mobilní telefony jsou 400 miliardový USD trh kdežto servery jsou 50 miliard USD. Intel se pokusil vstoupit s Atomy do tabletů a mobilních telefonů a víme jak to dopadlo ­- prodělal miliardy a byl rád že ty Atomy upíchnul alespoň do Asus Eee. Taky víme jak dopadl GPU akcelerátor s x86 jádry aneb Intel Larabee. Až budou x86 v telefonech a budeou porážet ARMy výkonem a úsporností tak klidně smeknu klobouk a přiznám že x86 může být stejně dobrá jako RISC. Inženýři nejsou pitomci a moc dobře ví že x86 z principu nikdy nemůže být stejně efektivní jako RISC. Protože každej x86 CPU vnitřně funguje jako RISC, takže každému studentovi musí dojít že ten překlad instrukcí CISC­-to­-RISC je zbytečně stojí tranzistory a energii.
Odpovědět0  1
kutil05 (677) | 1.7.202316:17
Že se něco Intelu nepodařilo, neznamená, že by se to někomu jinému podařit nemohlo. Vždy když se porovnávají odlišné architektury, jsou tam výsledky, které líp sedí jednomu procesoru, jiné zas dalšímu. Zrovna jsem si vyhledal srovnání AMD, XEON a EPYC a je velice těžké jednoznačně určit, která architektura je lepší, zda ARM nebo x86­-64. Jediné co jednoznačné je, že v tom, na co se zrovna dívám, je jednosocket 24 jader EPYC lepší než dva sockety XEON po 28 jádrech. ARM 32 jader je někde lepší a někde horší. Jenže ty rozdíly oběma směry jsou i násobné. Pokud by z toho někdo udělal průměr a tím stanovil IPC, může být výsledek dost zkreslený. ˇÚ plně totéž bylo vidět i kdekoliv jinde, kde byly testy dost podrobné. A je jedno, co srovnáváme, jestli Intel, AMD, ARM nebo POWER. Nikdy nejde jednoznačně říct a nějak zobecnit, který procesor je celkově lepší. Softwarová optimalizace může někdy udělat víc, než změna hardware, ale není to vždy pravidlo. Spotřební SW na PC má k dobré optimalizaci daleko. Testy pod Linuxem, ale zase uživateli Windows moc neřeknou...
Odpovědět0  0
Son_of_the_bit (961) | 1.7.202317:32
HW výpočetní jednotky jsou KING ­(ALU a FPU­). Všechno ostatní i ta ISA je nutné zlo, které pomáhá ty výpočetní jednotky krmit. Nejlepší ISA je žádná ISA ­- to je důvod proč ASIC encodéry videa jsou mnohem efektivnější než enkodování přes SW. Ale zase na tom nespočítáš nic jiného. Lidský mozek taky žádnou ISA nemá a přesto je milionkrát výkonnější než sebelepší počítač. Z toho plyne že dobrá ISA nebrzdí HW výpočetní jednotky tak moc jak ta špatná. Cache taky výkon nezvyšuje, protože nic nepočítá, jen když je jí málo, tak nestíhá zásobovat výpočetní jednotky. Stejně tak každá ISA víceméně brzdí výpočetní výkon.

Vem si že ISA neumožňuje běh více vláken na více procesorech a tento nedostatek musí oklikou řešit OS a programátoři to musí ručně řešit vytvářením vícevláknových programů. Přitom by ISA mohla mít instrukce pro spuštění paralelního vlákna a tedy CPU by mohl sám rozhodnout zda to spočítá přes ALU, vektory nebo to pošle vedlejším CPU ­- to vše automaticky­/dynamicky podle toho jak kolik výpočtů­/instrukcí to vlákno má. Nízké desítky instrukcí hodí jen na ALU, stovky instrukcí se už vyplatí hodit na vektory a desítky tisíc instrukcí se vyplatí poslat na ostatní CPU. Tady vidíš že ani ten ARM nebo jakýkoliv současný RISC není úplně dokonalý a jsou tam fundamentální problémy, které ještě čekají na vyřešení od nějakého nového Kellera, Muska či někoho podobného.

Osobně si myslím, že co se týče ISA tak ještě uvidíme hodně zajímavé věci. Ono totiž neuronové sítě alias AI produkují výsledky jaké umí spočítat algoritmy přes ISA, ale přitom AI žádnou ISA nemají, jsou mnohem výkonnější protože nemají onu ISA a zároveň umí řešit mnohem složitější problémy než sebelepší člověkem vytvořený algoritmus. Dá se říct že neuronové sítě mají do těch svých matic­/neuronů zakodované jak data tak i samotný algoritmus, což opravdu obchází onen klasický počítač s ISA. Navíc neuronové sítě dělají výpočty paralelně ­(proto se používají na trénování GPU karty­), což je obrovské plus oproti striktně seriovému vykonávání instrukcí u všech současných ISA.

Ten kdo vynalezne hybrid RISCu a neuronových sítí, ten bude asi hodně bohatý člověk. To by mohlo posunout výkon o několik řádů nahoru a zároveň masivně zjednodušit programování ­(tedy snížit náklady­). Obrovská výhoda AI je ono učení, což je vytváření algoritmů automaticky bez jediného programátora. Vymyslet chytrou ISA která by dokázala ušetřit třeba 50% času prográmatora, tak to se bavíme o stovkách miliard ušetřených ročně. Kdybys z toho měl třeba 1% za prodej licencí, tak je to docela slušnej ranec.
Odpovědět0  2
kutil05 (677) | 1.7.202318:19
Aha takže struktura cache, registrů, prediktor větvení, vykonávání mimo pořadí ­- nic z toho tam asi k ničemu není, jen to seřazuje mikroinstrukce ­(v čistých RISC přímo intrukce­) do optimálního pořad, aby procesor dal optimální výkon. K registrům a cache ještě partří Load­-Store jednotky, samozřejmě výpočet adres a řadiče pamětí, cache a sběrnic. Ale podle vás to moc práce nedá a nastrkat paralelně klidně dva tucty výkonných jednotek by tedy mělo být snadné. Řídit vše přímo programem moc nefunguje, říká se tomu VLIW ­(anglicky very long instruction word­), Intel to zkoušel 2x. Poprvé jako i860, ten se nejvíc uplatnil v grafické části SGI pracovních stanic a možná v některých laserových tiskárnách a pak známé Itanium. Ani jeden moc jako samotný CPU nefungoval.
Odpovědět0  0
Son_of_the_bit (961) | 1.7.202321:08
Opakuji znova:

1­) ASIC encodéry žádnou ISA, ani Load­/Store jednotky ani nic co je v běžném CPU nemají. A přesto jsou výkonnější a efektivnější než CPU. Veškeré algoritmy mají pevně zadrátované a jediné co potřebují je vstupní a výstupní buffer pro zpracované data.

2­) Neuronové sítě jako třeba lidský mozek nemá ani ty buffery ani žádnou paměť. Každý neuron je jedna velice výkonná ALU jednotka se svou vlastní pamětí. A ta ALU jednotka umí zpracovat tisíce paralelních vstupů za jediný takt ­(neuronové synapse­). Neurony v lidském mozku mají v průměru 7000 spojení na jiné neurony, což je pořádná dávka dat na zpracování. Přesto, nebo spíš právě proto, lidský mozek má větší výkon než všechny počítače na světě dohromady.


Takže ano, lidský mozek prakticky dokazuje že můžeš mít 100 miliard super výkonných ALU jednotek s vlastní malou pamětí a žádou ISA, žádné dekodéry ani cache, ani jádra, ani re­-order buffer, ani nic jiného nepotřebuješ.

VLIW je dobrá myšlenka na explicitní paralelní zpracování, ale velmi špatně provedená. VLIW je ISA přímo na míru HW, což porušuje univerzálnost­/abstraktnost ISA, takže to neumožňuje škálovat výkon ­(počet ALU a jiných jednotek v CPU­) nezávisle na ISA. Má to výhody pro jednoduchá GPU jádra, která jsou schovaná za GPU driverem s vlastním kompilátorem, ale pokud chceš změnit počet ALU jednotek tak musíš změnit ISA, což opravdu je u CPU naprd, nehledě na to že OoO engine v CPU si umí extrahovat daleko větší paralelismus díky spekulativnímu vykonávání ­(VLIW je vlastně in­-order palelismus stanovený při kompilaci­). Ten kdo vymyslí hybridní ISA co bude mít výhody RISCu a zachová myšlenku o paralelním zpracování z VLIWu, ten bude hodně ve vatě. Snad si nikdo nemyslí že CISC nebo RISC je konečná a nikdo už nevymyslí nic lepšího.
Odpovědět0  1
kutil05 (677) | 1.7.202321:40
Napsal jsem to proto, že se tu bavíme o klasických CPU a ty prostě ta data i instrukce pro výkonné jednotky nějak připravit musí ASIC bych do toho fakt netahal protože proti němu jsou i GPU a patrně i digitální signálové procesory násobně universálnější. Původní myšlenka RISC ještě bez dekodérů, zpracovávající opravdu jednoduché instrukce byla asi nejčistší, ale jak je vidět, nevydržela.
Dokonce jeden z nejlepších RISC ­- procesor Alpha 21264 ­/ EV6 přišel jako první s vykonáváním mimo pořadí a když pominu postupné přidávání výkonných jednotek, tak právě nové instrukce převážně vektorové a v poslední době maticové přidávají největší porci výkonu na jádro při stejném taktu. Takže výkonný CPU se ještě dlouho bez ISA neobejde.
Odpovědět0  0
Son_of_the_bit (961) | 2.7.202310:20
Myšlenka původního čistého RISCu přece vydržela dodnes ­- microOps nejsou nic jiného než jinak nazvaný původní čistý RISC.

Dnešní RISC se evolucí postupně vyvinul ke stejné komplexnosti jako CISC, ale bez nevýhod CISCu. To bych připisoval spíš chytrému kódování a snaze snížit velikost binárky ­(zvýšit kompresi informace­) kdy se nejčastěji používané instrukce sfůzují dohromady ­(viz ten LDADD co zmiňovali na CHips&cheese­). Jeden ze způsobů co ARM zkoušel byla ISA zvaná Thumb a Thumb2, což umožňovalo u těch nejčastěji používaných instrukcí použít 16­-bit kodování místo 32­-bit takže binárka mohla teoreticky dvakrát menší a tedy překonávala v hustotě i x86 CISC. Dodnes se to používá v mikrokontrolérech od ARMu a používá to i konkurence v ESP32 od Tensilica. Ale u velkých OoO CPU se to nikdy nepoužilo, protože ta variabilní délka komplikuje dekodování skoro jako u toho hrozného CISCu x86 ­(byť 2 možné délky instrukce jsou pořád lepší než 15 možných délek u x86­). Prostě inženýři nakonec přišli na to, že pro HW je lepší fůzovat instrukce a přidávat funkcionalitu do 32­-bit než pak složitě řešit polynomickou explozi u dekodérů.

Myslím že první OoO byla EV5 a nejlepší byla EV8 která uměla jako první SMT a to rovnou 4 vlákna na jádro. Taky měla brutální 8xALU a 4xFPU, což by byla v 2003 naprostá pecka a Pentia 4 a K8 Athlony by to rozesekalo na maděru. Intel Alphu koupil, vytuneloval patenty použité k vývoji EV8 a zrušil to komplet ­(třeba memory disambiguation technika pro EV8 byla použita v Core 2 Duo a proto to byl tak obrovský IPC skok proti P­-M a P4­). Tragické je že teprve po dlouhých 20­-ti letech přišel ARM s 8xALU jádrem X3, takže díky Intelu vývoj CPU 20 let stagnoval. Jinak poslední vydaná byla EV7 která byla revoluční tím, že měla jako první integrovaný paměťový řadič ­(což AMD okopčilo do K8 protože spousta inženýrů z DECu přešla k AMD­). A to nemluvím o tom že Intel přemluvil HP aby zrušilo vývoj vlastních CPU na bázi PA­-RISC ISA. Prostě x86 je zlo, které napáchalo a stále páchá obrovské škody díky svému monopolu. Jim Keller vývojem AMD K12 na ARM ISA chtěl AMD z toho x86 humusu vyvázat, ale Lisa Su chěla zůstat u monopolního lizu co nejdýl a K12 zrušila. Dnes by mohlí mít víc peněz z mobilů než z PC, ale vysvětluj chamtivé manažerce z IBM že s x86 mobilní telefon udělat nejde.


Asi každý kdo se zajímá o CPU si někdy vytvořil vlastní ISA. Já mám 3 verze různě modifikového RISCu, ale kromě zábavy to moc užitečné není. Vytvořit novou ISA není problém, viz ten Danilák ze Slovenska a jeho Tachyum Prodigy CPU. Problém je aby byla lepší než ty současné a to je sakra těžké. Mimochodem je spousta ISA které si nadšenci­/studenti navrhli sami:
https:­/­/www.youtube.com­/watch?v=HyznrdDSSGM&list=PLowKtXNTBypGqImE405J2565dvjafglHU
h­ttps:­/­/oldcomp.cz­/viewtopic.php?f=138&t=12053

Odpovědět0  1
kutil05 (677) | 2.7.202312:19
Jak PA­-RISC, tak Alpha skončily kvůli společnému vývoji Itania ­(Intel & HP­). EV 8 zůstal jen na papíře, ale v plánu byla další dvě vylepšení: Jednak fyzické dvoujádro a taky vektorová jednotka. Jeden z rozdílů mez EV 6 a EV 7 byla menší L2 cache ovšem už nebyla externí. A násobně rychlejší operační paměť RAMBUS. Jinak HP neměl ani tak moc důvodů Alpha dál vyvíjet, když zařízli i vlastní RISC procesory kvůli spolupráci na Itaniu, samozřejmě si nejdřív počkali na první výsledky Itania.

Aby zas nebyly dohady, zde je historie i konec Alpha procesorů dobře popsaný: http:­/­/alasir.com­/articles­/alpha_history­/index.html
Odpovědět0  0
Son_of_the_bit (961) | 2.7.202312:57
HP Alphu nikdy nevyvíjel. Ta byla prodána Compaqu a následně Intelu, kterej ji zařízl, což v tom článku chybí. Ale prodejní čísla měla teda úžasný, to jsem ani nevěděl. Škoda že se toho DEC o pár let nedožil, možná by pak nezkrachoval a byl by tu dodnes.


Mimochodem Intelu spadla do klína spolu s Alphou i další nejlepší architektura na světě, tentokrát nejlepší mobilní CPU StrongARM ­(DEC­). Intel to přejmenoval na XScale a dlouhé roky dodával čipy pro hromadu mobilních zařízení od Palmů až po high­-end WindowsCE komunikátory. Pak dostal sebevražený nápad nahradit ARM za x86, XScale prodal a následně prodělal miliardy na pokusu dostat x86 Atomy do mobilních telefonů. Chamtivost se jim vymstila, protože dnes z mobilního trhu 8x většího než servery mají přesně 0,­-USD. Stejně jako AMD po zrušení ARM K12. A dobře jim tak tydýtům, nakonec si sami naběhli na svoje vlastní vidle.

Dnes ikdyby chtěl Intel nebo AMD vyvíjet ARM nebo RISC­-V, tak už je pozdě protože i ty obyč licenční X4 mají o 33% vyšší IPC než Zen 4. A to je konečná pro AMD a Intel. Jediné co jim zbývá je vyrábět GPU a k tomu dávat licenční ARMy.
Odpovědět0  1
kutil05 (677) | 2.7.202313:29
Compaq ještě vyvíjel Alpha, ale HP koupil Compaq. V tom textu to o jasně je, včetně důvodů proč DIGITAL skončil krachem. A HP měl svůj PA­-RISC a ten skončil kvůli Itaniu. Ale mám dojem, že pořád dokola opakuješ totéž. Co si ten článek nejdřív přečíst? Ani není nutno číst vše...
Odpovědět0  0
Son_of_the_bit (961) | 2.7.202314:37
To že HP fůzoval s Compaqem nic nemění na faktu, že HP nikdy Aplhu nevyvíjel. Intel Alphu včetně StrongARMu koupil od Compaqu, ikdyž to už bylo po fůzi.

Důležité je že Intel úmyslně zlikvidoval konkurenční Alphu, která jako zbrusu nový 64­-bit RISC bez jakéhokoliv balastu ­(předchůdce byl 32­-bit CISC VAX od DECu­) byla prostě na míle daleko před 32­-bit x86, i před budoucí x86­-64 aka AMD64.

Naštěstí je x86 taková strašná sračka, že v mobilech nemá žádnou šanci. I kdyby tu sračku nastříkali zlatou barvou, nikdy z toho zlato nebude.
Odpovědět0  1
kutil05 (677) | 2.7.202316:29
S ohledem na to, že v té době měl vlastní x86 a vyvíjel Itanium, si moc neumím představit, že by současně pracovali i na Alphě. A s ohledem na situaci Compaqu by Alpha procesory stejně skončily. Bylo to logické. Já chápu, že tě konec této architektury žere, ale pokud by jsi znal situaci DIGITALu, tak by ti bylo jasné, že konec by tak jako tak přišel. Taky jsem ty procesory obdivoval, ale zabila je obchodní politika vlastní firmy.
Odpovědět0  0
Son_of_the_bit (961) | 3.7.202319:50
Mně vadí, že Intel svými nekalými obchodními praktikami zašpuntoval vývoj CPU na 20 let.
Až po 20 letech tu máme ARM X3 jádro s 8xALU a 4xFPU jako ta EV8.
Ale pořád ani ta X3 neumí SMT4 aneb 4 vlákna na jádro jako ta EV8.

Takže ani po 20 letech nejsme tam kde mohla být EV8 v roce 2003. To je ta tragédie.
Odpovědět0  1
kutil05 (677) | 3.7.202321:16
To je složitější. Ano Intel se mohl víc snažit, ale prostě konkurenci moc neměl. Dokonce Intel CPU začaly nahrazovat RISC procesory v pracovních stanicích. To je jeden z dalších důvodů, proč DIGITAL zkrachoval. Dnes nikdo klasické RISC ­/ UNIX pracovní stanice nevyrábí. Jedině snad Talos II, ale tam je primární zaměření taky jiné. ARM v té době neměl sílu ani pořádný odbyt, musel se nejdřív vyvinout a dokud se hodil jen pro mobilní a nízko­-odběrové aplikace, nebyl moc důvod dělat lepší jádra. Všechny ty techniky se postupně vyvíjí až následně je používá víc výrobců, ať šlo o vykonávání mimo pořadí, vektorové jednotky, multi­-threading a tak dál. Co se Intelu týká, daleko víc zazlívám, že utlumil nekale AMD a tomu pak dlouho trvalo, než se zase zvedlo. Velké RISC procesory tehdy byly obecně na útlumu. MIPS taky přežily jen v síťových a embedded aplikacích. SPARC se džel dlouho a taky umírá. Jen IBM POWER, což byl první RISC vůbec, se stále daří, byť na specifickém trhu.
Odpovědět0  0
Son_of_the_bit (961) | 5.7.20239:55
Máš to dost pomotaný.

AMD se utlumilo samo svým demetním managementem, začalo to zrušením Kellerova K8 Hammeru a jeho odchodem z AMD, pak angažováním Hectora Ruize kterej přivedl AMD do permanentní ztráty a Ruiz ještě začal vývoj Bulldozeru než rezignoval a nastoupil šašek Dirk Meyer, kterej místo aby BD zrušil, tak AMD dovel téměř do krachu. Intelovy podrazy byly nic proti tomu co si AMD způsobilo samo.

Do toho Intel zařízl nejen DEC Alphu a HP PA­-RISC, ale i vlastnímu x86 přestal dával licence na vývoj CPU. Žádnej novej NexGen, Cyrix, UMC, TI, ST, IBM nebo Rise MP6 CPU už nemohl vzniknout, protože Intel jako majitel x86 udělal z otevřené ISA monopol. Zbyla jen totálně neschopná VIA a polomrtvé AMD.

MIPS, PowerPC a jiné uzavřené ISA dojeli na svoji uzavřenost, stejně jako na ni dojede x86 a všechny ostatní uzavřené ISA. Každý přechází na 64­-bit ARM a RISC­-V protože to jsou otevřené moderní ISA, a navíc aktivně vyvíjené, viz revoluční SVE­/RVV vektory. Žádná velká věda v tom není.

RISC­-Unix Worskationy jsou tu pořád. Třeba tato se 128­-jádrovým ARM a Win10­/Linuxem:
https:­/­/youtu.be­/ydGdHjIncbk
Odpovědět0  1
kutil05 (677) | 5.7.202313:09
PA­-RISC Intel mohl dost těžko zaříznout, když to byl CPU HP, které se samo rozhodlo k přechodu na Itanium. A Alpha servery vydávala ještě taky HP ­(stanice vyráběl naposledy Compaq­), vy jste ten článek zcela evidentně nečetl a plácáte ty svoje kraviny furt dokola. Když se Alpha dostala do Intelu, byla to prakticky mrtvá platforma.

Co se AMD týká, máte představu, jak dlouho tlak Intelu na výrobce, aby nenakupovali CPU AMD trval? Věděl jste například, že první dual CPU platformu mělo AMD už za doby Athlonu XP?

Máte o historii počítačů zkreslené představy. Hector Ruize se do AMD dostal, když už mělo problémy a bylo to hodně zlé řešení.

A k tomu zaříznutému K8 ­- ta architektura se vyráběla mezi roky 2003 až 2014, pak byl potenciál vyčerpaný a přišla K10.
Odpovědět0  0
kutil05 (677) | 5.7.202314:15
To je docela sranda, dát víc peněz za ARM a pak na tom pouštět x86­-64 aplikace pomaleji než na levnějším PC nativně... Speciálně ARM Windows je low­-end produkt primárně pro mobilní CPU a podle toho SW podpora vypadá. Když už něco takového, tak na Linuxu nebo BSD a s nativními aplikacemi. Ampere Altra jsou serverové CPU a podle toho stojí. A jedna věc, 6 kanálů RAM vypadá proti AMD nějak málo. ZEN 4 EPYC mají 12 ­(workstation desky jen 8, protože by nezbylo místo na PCIe 5.0 sloty­) a Thread Rippery PRO 8. Pouze max 64 jádrové Thread Rippery ­(levnější řady­) v nové menší patici budou mít 4 kanály, ale zase by mohly běžet na 6 GHz jako v desktopu místo 4,8 GHz.
Odpovědět0  0
Milan Šurkala (4176) | 5.7.202315:18
"Ampere Altra jsou serverové CPU a podle toho stojí.­"

Tak ona sestava s 32jádrovým Ampere Altra, 32 GB RAM vyjde na 3250 USD, což zas není až tak šílená cena. 128jádrová verze ­(celé PC i se 128GB DDR4­) vyjde na 5660 USD. Co se dívám, tak 64jádrový Threadripper ­(tedy 128 vláken­) sám o sobě vyjde na 4500­-6500 USD.
Odpovědět0  0
kutil05 (677) | 5.7.202315:55
To je dost levné a je to celá sestava nebo barbie tedy deska CPU a skriň se zdrojem a chladičem?
Odpovědět0  0
Milan Šurkala (4176) | 5.7.202316:36
Celá sestava ­(včetně RAM a SSD, byť velmi malého­). Deska s CPU a chladičem začíná už pod 2000 USD. V sestavě máte 32jádrové CPU, 2×16GB DDR4, 128GB SSD, skříň, 750W zdroj, přípravu na vodní chlazení, 1GbE sí´tovku, předinstalované Ubuntu. A co se dívám, cena už klesla na 2666 USD za základní verzi, protože to teď už trochu pozměnili. 96jádro s 96GB RAM a 256GB SSD je od 3738 USD.

https:­/­/www.ipi.wiki­/products­/ampere­-altra­-developer­-platform?variant=41995037868194
Odpovědět0  0
kutil05 (677) | 2.7.202317:01
Dokud si nepřečteš ten článek a nepochopíš, co se vlastně tehdy stalo, je další diskuse zbytečná.

Je tam jak celý vývoj Alpha, tak stručně DEC, i dostatečně rozebraný konec. Mimochodem Intel měl nejen na Alphu s DEC podepsanou crosslicenční smlouvu na 10 let, ale DEC už to nedokázal využít, dokonce se měly Alpha procesory u Intelu vyrábět.

StrongARM skončil proto, že když ho Intel od DEC koupil, tak sice měl všechny podklady, ale neměl na tom kdo pracovat, inženýři kteří ho u DEC měli na starosti, šli jinam. To tam je vše popsané.

http:­/­/alasir.com­/articles­/alpha_history­/dec_collapse.html
Odpovědět0  0
haunter (193) | 30.6.20230:35
Asi se tu někdo dívá na špatné recenze a Gamer Nexus asi nekecá... jinak ta paměť + šířka sběrnice + pcie x8 to totálně zabíjí...
Odpovědět2  0
Bison (763) | 29.6.202320:14
Nvidia musela vsadiť na nízku cenu a ak pridáme vysokú infláciu je to ok nikam inam by sa nedostali, na výkone tu aj tak nezáleží, nie je to pre hráčov ktorý chcú max výkon, je to ako konzola na hranie, minimum za minimálnu cenu, pre študentov ideálna karta , zarobí si na ňu za pár dní na brigáde.
Odpovědět1  4
unreall (440) | 3.7.202315:32
To musí mat parádnu brigádu, keď mu za pár dni dajú polovicu platu väčšiny zamestnaných…

Inak súhlasím s tým, že je to karta na minimum, len s tou minimálnou cenou si skočil trochu vedľa…
Odpovědět0  0
JakubL (188) | 29.6.202311:50
Pro úplný obrázek by bylo dobré doplnit ještě i cenovky a poměr cena­/výkon.. Tam 4060 vychází oproti Radeonu a Arc zase hůř.
Odpovědět4  0
Son_of_the_bit (961) | 29.6.202316:20
Ale příští rok tu 8 GB budeš moct vyhodit kvůli nedostatku VRAM.
Takže když už, tak už 16 GB ARC.

Ale upřímně je lepší koupit něco s ARM GPU s unifikovanou pamětí. Apple M2 Max má 8­-kanálový RAM řadič a v propustnosti ­(400 GB­/s­) natrhne trenky i serverovému Zen 3 Epycu. 4060 má 288 GB­/s takže o dost míň a ještě pouze 8 GB.
Odpovědět0  8
HoCh (259) | 29.6.202316:36
A co z běžně hraných her na tom jabku běhá ?
Odpovědět3  0
cdwN (584) | 29.6.202320:24
Prakticky nic a v tom je ten fór....
Odpovědět1  0
Son_of_the_bit (961) | 30.6.202312:29
Desítky top AAA games, jenom o tom nevíš: https:­/­/youtu.be­/w4rUg­-KrxqA?t=782
GTA5
Warhammer III
Metro Exodus
Shadow of the Tombrider
Borderlands 3
Fifa 22
God of War

... atd.
Odpovědět1  2
cdwN (584) | 30.6.202312:51
Děkuju, vždycky se rád poučím :)
Odpovědět1  0
Son_of_the_bit (961) | 30.6.202314:17
Nemáš zač. Abych se přiznal o Tombrideru jsem věděl, ale sám jsem překvapen že tam toho běží tolik :)
Odpovědět0  3
komplikator (630) | 1.7.20239:18
Tak s novými API už nepotřebuješ virtualizovat nbeo crossover, nové API určené pro snadnou portaci překládá DX12 na Metal... na Macu běží třeba i Howarts Legacy, na pasivně chlazeném MacbookuAir to uchodíš ve FHD rozlišení na 30+ FPS.
Odpovědět0  1
cdwN (584) | 1.7.202322:31
Zase jsme ale u toho, že aby mi ty hry běhaly takhle, tak za cenu toho macbooku si postavím dva herní kompy. Točíme se pořád v kruhu. Ano, hry na tom jdou hrát, ale za jaký prachy....
Odpovědět0  0
unreall (440) | 3.7.202315:37
Asi si nikto nekupuje MacBook na hranie, ale keď ho už kvôli inej činnosti niekto vyžaduje, tak hranie ber, ako bonusovú možnosť. Iný uhol pohladu.
Odpovědět0  1
cdwN (584) | 4.7.202310:25
V pořádku, taky si to myslím, ovšem jeden člověk tady neustále dokola opakuje, že Apple je výkonnější a že si ho na to hraní můžeš koupit. Proto píšu, že to prostě člověku, který chce herní PC nevysvětlím, že si má připlatit trojnásobek za výkon, kterej mu bude k ničemu. Účelově na hraní a čučení na internetu na hovadiny nebudu někomu doporučovat MacBook, to je přece nesmysl. Zkrátka buď vezme NTB s CPU Intel nebo AMD, nebo mu postavím herní PC či kancelářský stroj. Pokud někdo chce vysokej pracovní výkon s maximální kompatibilitou a chce si na tom semtam zahrát, připlatí si za MacBook. Tvrdit, že Apple může konkurovat skutečně účelovým herním PC je přinejmenším zavádějící....
Odpovědět1  0
kutil05 (677) | 4.7.202313:18
Souhlas, někdo vymýšlí neskutečné myšlenkové konstrukce, aby podpořil svou teorii.
Odpovědět0  0
honza1616 (3574) | 29.6.202316:46
K čemu je ti 16GB na lowend grafice?
Máš lowend grafiku tak předpokládám že monitor máš přinejlepším 1080p
A pokud máš celkově slabší HW tak asi nebudeš chtít hrát s grafikou na max +zapnutý RT a s očekáváním minimálně 240fps

Já mám monitor 1440p
Grafiku 2080ti, výkonově tedy +­- stejné, jen 11GB a i větší propustnost,
nicméně u menšího monitoru s celkově lowend sestavou je 8GB na grafice pořád odpovídající porce paměti, uvědom si že ještě pár let zpátky to byla poloviční porce pamětí,
Navíc je to prostě lowend, pokud highend má 20­-24GB tak do lowend grafiky nemůžeš dat 16GB
Odpovědět5  0
Son_of_the_bit (961) | 29.6.202317:00
Mám 4K monitor už hodně let.

Před 4 roky jsem kupoval 8GB RX570 za 4500,­-Kč. Nevím proč po 4 letech bych měl kupovat pořád 8GB GK ještě navíc za dvojnásobek ceny. To je úplně hlavu padlé, zvlášť když 32 GB RAM stojí 1400,­-Kč.

Uměle špuntují kapacitu VRAM aby si za dva roky museli všichni koupit 16 GB karty, protože jim dojde VRAM. Přitom 16GB stojí o 350,­- víc a to by si připlatil asi každej. Jenže nemůže ani kdyby chtěl, protože takové GK záměrně nenabízí. Jestli se ti tahle lumpárna líbí, tak seš divnej. Už kvůli ekologii, protože miliony GK kvůli tomu skončí předčasně na smeťáku.
Odpovědět5  8
PauloKP69 (58) | 29.6.202319:07
To jako opravdu srovnáváš cenově grafické paměti GDDR6­(X­) s běžnýma RAMkama DDR4? Tohle srovnání je úplně mimo.
Stejně tak ohánění se nějakou propustností u M2, protože k čemu to je? Co si na tom reálně zahraješ a vůbec nějak tam tu propustnost poznáš? Nic a nijak, ale na papíře to vypadá hezky.
Odpovědět4  1
Akulacz (182) | 30.6.20238:55
No už jsme viděli na 60Ti že NV za ně chce příplatek 100$
Nákupní cena pro výrobce by měla být 24­-32$, takže reálný minimální příplatek v krámě je tak 50$. To by asi docela zájem byl ale za 400$ by to hodnocení dopadlo ještě hůře.
Odpovědět0  0
Son_of_the_bit (961) | 30.6.20239:43
Ten příplatek za 16 GB si určí výrobce, kterých je mraky a vždycky se najde někdo kdo tam napálí minimální marži. Jenže AMD 16GB neumožňuje, takže smolík pacholík.

Je to zlodějina. Já mám 12 GB 3080Ti z těžby a zloději z AMD si 8GB 7600 můžou strčit kam se jim zlíbí. A většině lidem to evidentně taky došlo, když AMD brutálně spadly prodeje. Dobře jim tak.
Odpovědět0  3
Akulacz (182) | 30.6.202319:39
Měl by jste také začít něco vyrábět...
Když vezmu tuto 4060 a AD107... Aby stála 360$ na krámu včetně DPH­(300$ bez­) tak by jste ji měl vyrobit maximálně za 180­-200$ protože zbytek vám sežere doprava, daně a prodejní řetězec. Tu paměť ­(8GB­) koupíte od výrobce za 24­-32$, evidentně to je zloděj když vám ji prodá za 4x tolik co ddr4, ale buď si postavíte svoji foundry za miliardy dolarů, nebo to musíte od nich koupit. Pak přijde NV, která jen tsmc za tento pidičip zaplatí cca 40$, jen je problém že od tsmc dostane jen placku plnou čipů. Tu placku musí poslat do další fabriky kde udělají BEOL, rozřežou a zapouzdří. Dokonce si i ta zlá NV řekne o nějakou marží aby měla za co vyvinout další generaci... Takže za tento miniaturní krumpl dáte 80­-100$ ­(skoro jako za hiend v generaci pascal­) a najednou vám zbývá 50­-70$ na zbytek karty, zaměstnance, vývoj... Možná když koukneme na tyhle čísla, tak se není co divit v že většina edic za doporučenou cenu nemá nějaké extra provedení... Když vezmu Navi 33 tak tam ta cena za ­"čip­" z tsmc bude o 5­-7$ nižší ale prodejní je o 30$ níže...
A třeba nějaká 7700 s 12GB ­(což by mělo na fHD a qHD být přijatelné­) bude mít cenu která by 7600 16GB příliš konkurovala, tak ji nemusí dávat smysl vydávat, když by každý radši koupil výkonnější model...
Nebo můžeme jít k jablečným, kde koupím celý stroj, který má 16GB­(sdílených­) a za podobný výkon si řekne jen 2300$. Podobnou sestavu postavím kolem 1000$, když budu brát herní výkon, samozřejmě pokud budu každý den stříhat videa a podobně, tak se mi vyplatí to jablko vzít, ale pokud na tom budu převážně hrát, tak si charitu představuji jinak...
Odpovědět1  0
Son_of_the_bit (961) | 30.6.202321:21
24$ je nějakých 700,­-Kč a to bych si klidně za 16 GB verzi připlatil.

Pročpak nám ty hodné korporáty ty 16 GB verze nenabízí?
Už vidím Huanga jak jí suchý chleba a zapíjí to vodou z kohoutku zatímco jej hřeje pocit že utratil poslední dolar aby svoje zákazníky uchránil před příliš velkou VRAM :D
Odpovědět1  1
Akulacz (182) | 30.6.202322:40
V nákupu pro výrobce!!! Pro ty chytřejší zopakuji pro výrobce...
Pak bych poprosil o vysvětlení proč si třeba hodný Apple řekne za těch 8GB které mají 90% buněk stejných příplatek 7000 korun když to je dle vás 350...
Doufám že vás živí rodiče nebo chodíte do zaměstnání­/podnikáte bez nároku na výplatu­/zisk a to co jste uspořil na elektřině použitím OrangePi5 chystáte použít na založení vlastní firmy co bude grafické karty rozdávat chudým hráčům...
Když budete prodávat za náklady, tak asi příští generace moc pokroku nepředvede, pokud se vám vůbec povede něco vytvořit a nestihnete do té doby zkrachovat.
Když se podíváte na to kolik zbylo výrobců, kteří zvládají pokročilé procesy a ne jako kdysi kdy se to dalo realizovat takřka v garáži. Tak by vám mohlo dojít že to vše něco stojí i když jste nejspíše pouhý konzument, já jsem už 15 let uvnitř a vidím jaké částky se tu pohybují ­(a na stole se mi válí desítky waferů, pravda teď jen 8­" neprodukční vzorky­) a to se má práce týká převážně backendu ­(zkuste najít třeba Fraunhofer institut­) a přípravy waferů, kde se bavíme o desítkách až stovkách milionů$ a ne o miliardách jako v případě frontendu...
Odpovědět2  0
Son_of_the_bit (961) | 1.7.20237:28
Fraunhofer institut je německá obdoba českého Jedličkova ústavu pro postižené?

To by potom ty neznalosti celkem odpovídaly tomu co zde píšeš....
Odpovědět0  4
Akulacz (182) | 1.7.20239:07
Ano a občas máme i vycházky aby jsme vstřebávali nějaká ta moudra a mohli to vyprávět těm co mají klecová lůžka... Včera jsme zkoušeli v troubě také nějakou grafiku, ale asi bylo málo prdopeče a zase z toho byl jen připálenej štrůdl, takže každá rada nám přijde vhod...
Odpovědět4  0
Son_of_the_bit (961) | 30.6.202310:02
Paměťové buňky, které tvoří 90% plochy paměťového čipu jsou u DDR4 i u GDDR6 úplně stejné, identické.

Jediný rozdíl je sběrnice a tedy organizace a způsob přenosu dat, kdy GDDR6 si řekne paralelně o více dat z více buněk najednou. GDDR má taky mnohem delší burst, takže má menší overhead ale zase mnohem delší latence ­(což je ok pro GPU ale zase to vadí u CPU­).

Kdybys vynalezl sběrnici se 4x vyšší přenosovou rychlostí ­(při stejné spotřebě­), tak okamžitě můžeš vytvořit GDDR8 nebo DDR7, protože samotné paměťové buňky ti dodají jakoukoliv přenosovou rychlost. Klidně ti vysypou celý obsah RAM v jednom jediném taktu jestli chceš.

Proto se dělají 2­-kanál řadiče v desktop PC a NTB, proto pracovní stanice mají 4­-kanál, a servery mají 8 a 12 kanál. Ale taky to má větší spotřebu energie. Proto je potřeba vyvíjet nové a rychlejší sběrnice, protože to zvyšuje efektivitu na jeden pin a snižuje náklady na výrobu PCB atd. Samo někdo ten vývoj zaplatit musí, takže licenční poplatky, ale ty paměťové buňky jsou stejné DRAM.
Odpovědět2  2
hl.hl (292) | 29.6.202321:09
A to je problém provozovat 4K monitor ve hrách na FHD rozlišení?
Odpovědět3  0
kutil05 (677) | 30.6.202314:20
Záleží na ploše. Typický 4k monitor proti typickému FHD má podstatně větší úhlopříčku a tedy plochu. Při FHD rozlišení na 4k monitoru tedy vychází daleko větší pixely. To už by mohl rovnou mít na stole 32­" full HD televizi...
Odpovědět0  0
komplikator (630) | 1.7.20239:16
Tak já mám 3k na 14­" což je dnes normální rozlišení pro 200% škálování, byť ještě lepší by bylo 3,5k Ale laptop má kratší pozorovací vzdálenosti

4k je pak ideál na 22­" monitor, 4.4k na 24­", 5k na 27­" a 6k na 32­" Zobrazení není malé ale není ani zbytečně velké pro ergonomickou vzdálenost cca 50cm, ale díky 200% škálování je velice ostré proti polovičním rozlišením. Je zatraceně cítit když člověk na 27­" používá už jen 4k ne nutně 5k a pak přejde na 256éx1440 na 27­" ty výrazné pixely, neostré zobrazení...
Odpovědět0  2
JakubL (188) | 30.6.20236:06
Jako taky bych ocenil v této třídě už trochu více VRAM, ale ten ARC prostě není dobrá karta a řešení. Ta 16GB verze je podstatně dražší a tedy už konkuruje spíše 12GB grafikám. Za těch 7­-8 tis prostě ani s Intelem víc jak 8GB nedostaneš. Navíc ARC má jiný slabily ­- žere jak kráva a s výkonem do budoucna to taky nevidím, ten čip má očividně hodně much co už se ovladači zachránit nepovede.
Odpovědět2  0
Son_of_the_bit (961) | 30.6.202310:12
Přesně. NV s AMD špuntují kapacitu VRAM a ten 16GB ARC je zase první zabugovaná generace. To je výběr jak prase.

Ale já doufám, že 2 gen ARCu Battlemage už většinu těch bugů odstraní, takže 16 GB Battlemage by mohl být hodně solidní GK. A pokud jo, tak by tím solidně rozvířil zatuchlé vody kartelového dua. V životě by mne nenapadlo že Intel jednou bude svýma GK zachraňovat celý trh.
Odpovědět1  2
kutil05 (677) | 30.6.202312:33
4k monitor opravdu v low­-endu není právě typický. Navíc člověk, který nad výdaji přemýšlí, si nebude kupovat monitor, na který mu low­-end grafika nebude stačit, nehledě na rozdíl ceny u těch monitorů...
Odpovědět1  0
Son_of_the_bit (961) | 30.6.202316:11
Schopný programator má od 1000,­-Kč ­/ hod a vystačí si s Inteláckou iGPU a 4K LCD.

Hry jsou super, než si člověk uvědomí, že se na kompu dají dělat mnohem lepší věci než jen zabíjet čas.
Odpovědět0  3
kutil05 (677) | 30.6.202316:29
To ale pak není typický low end uživatel při tom výdělku...
Odpovědět2  0
Akulacz (182) | 30.6.202323:09
Porno jde sledovat ve 4k i na té Intel igpu, to máte asi pravdu, chtěl jsem to zkusit, ale nepovedlo se ani to, ani poslat zprávy přes teams ­(což byla chyba těch debilů co mají těch 1k­/h plus­) tak jsem si nalil čistého vína ­(teď si nejsem jist jestli jste to doporučoval vy nebo jen někdo podobně se projevující­) a zbylo mi než diskutovat na této úrovni, kdy to víno­(a pivo a huntermaster­) způsobilo dokonce i chybu v jednotkách... ještě to zkusím zítra a pokud narazím na stejný kafemleknek jako je třeba ­"Jim Keller­" tak zkusím třeba radši nějakou hru, nebo nějakou štetku, ale s těmi místními germánskými typy asi nebude taková zábava jako s vámi...
Odpovědět3  0
Son_of_the_bit (961) | 1.7.20237:38
In vino veritas.

Aneb ještě větší blbec než jsme doufali.
Odpovědět0  1
komplikator (630) | 1.7.20239:31
Rozlišuj monitor pro hraní a monitor na práci. Malý 24­" monitor s 4,4k rozlišením je na práci ideál. S 220% škálováním dělá 2,2k obraz, tedy něco málo nad FHD, které je na 24­" už docela velké. Vykreslení je ale daleko lepší, ostřejší, jemnější...

Měl jsem teď Yogu 7 ­- 14­" OLED 2,8k rozlišení, teď mám 14­" MBP s miniLED 3k rozlišení, nezlobil bych se ani za 3,5k...


Kvalitní FHD­/QHD herní monitor, třeba nějaký 120Hz OLED bude stát kolik, 30 tisíc? Levný 4k IPS­/VA bude stát 8­-10k....

Bacha na to u monitoru záleží hodně na kvalitě panelu... A kvalita neznamená response time a refresh rate. Důležitější je třeba jas, kontrast nebo barevný gamu. Osobně už jsem zvyklý koukat na 100% DCI­-P3, ideálně 10bit, 220­-255 PPI, 300 nitů je jako nejnižší použitelné minimum v interiéru ale 500­-600 nitů je lepší...

Taky chceš aby ten monitor něco uměl, já si nedokážu představit monitor bez Thunderbolt ­(nebo alespo­(n USB­) dokovací stanice, jedním kabelem připojím počítač, ten mi to nabíjí, zároveň jde na ten monitor obraz a když má monitor daisy chain tak z něj připojím i druhý monitor, samozřejmost je třeba LAN a spousta USB portů, Monitor také funguje jako KVM switch kde přepíná ty připojené zařízení k počítači, ze kterého právě zobrazuje signál.... nechceš mít změť kabeláže... http:­/­/download.jirikocman.cz­/stul­/desk_setup2022.jpeg
Odpovědět0  0
sroobik (567) | 29.6.202321:59
pises uplne odveci. *60 nikdy neboli lowend, az teraz sa nvidia snazi pretlacit ten tvoj lowend za 330€. Je to karta strednej triedy, vzdy to bola karta strednej triedy a vdaka slabej konkurencii stoji to, co stoji. *60 grafiky kupujem odkedy existuju, po vsetkych tych rivach TNT a gForcoch MX ked opustili AGP, prisla PCIe 6600gt. Mal som 7600GT, 9600GT, 260gtx, 1060 a vzdy to bola karta strednej triedy. Nvidia skusila trik s premenovanim na 4080_12, tam im to nepreslo.. v lowende ano 4060 mala byt 4050 za 200€ a bola by to dobra karta...
Odpovědět3  1
Akulacz (182) | 30.6.202321:25
Také jsem vždy kupoval x6x karty­(od obou výrobců, hlavně kvůli tomu že byly doby kdy provozovat NV pod Linuxem byl očistec­) od dob co toto značení přišlo, protože vždy nabízely dobrý poměr cena­/výkon a lowend byl trochu jinde. Výjimku jsem udělal u 750 když byla hubená léta ale pak jsem ­"fasoval­" i na doma WS s quadrem, teď už ho nechtěli dát tak jsem vzal rx6600 hlavně kvůli nízkému TDP ­(do mATX boxu kde není příliš místa­)
Kdyby toto byla 4050 a stála 200$ tak bych asi také byl šťastnější ale proč tomu tak není píšu trochu výše, reálné to bude možná ve výprodeji až tu bude další generace, která bude nejspíše zase o něco dražší...
Odpovědět0  0
komplikator (630) | 1.7.20239:38
Nižší střední třída...

A nikdy na 60 grafikách nešly hrát aktuální moderní hry aniž by se redukovaly detaily. Já třeba dostal Witchera 3 k GTX960, o rok a půl později s GTX1080 jsem toho Witchera nemohl pustit v max nastavení ve FHD aby to neklesalo pod 60FPS. Musel jsem snížit 8xAA na 4xAA u Hairworks, pak už to šlo. Jenže GTX1080 je kolik 3x rychlejší než 960?
Odpovědět0  0
unreall (440) | 3.7.202316:01
Akože vážne? 8xAA a nejaké blbe hairworks? Tu si zase niekto pletie hranie a hranie…
Odpovědět0  1
JakubL (188) | 30.6.20235:55
Jen škoda, že Intel u 16GB ARC už ohlásil EOL a už nepřijmá další objednávky... Jo, jde sehnat od jiných výrobců, ale ten poměr cena­/výkon už je fakt špatný. Jen o něco dráž se dá sehnat 12GB 6700XT, která je výkonově zase někde jinde.
Odpovědět0  0
Son_of_the_bit (961) | 30.6.202310:23
Příští rok už má vyjít Battlemage, takže EOL 16GB Alchemistu je spíš předzvěst příchodu nástupce. No a ty 8GB Alchemisty půjdou vyprodat za levno do OEM, a tím Intel může dosáhout 50% prodejů AMD :D

Právě nyní Intel ladí hromadnou výrobu aby v zimě už jela výroba čipů. Pak to všechno osadit na PCB, zabalit do krabic no a taky měsíc až dva než to lodí dopluje v kontejnerech z Činy. No v polovině příštího roku to máme na krámě.
Odpovědět1  2
haunter (193) | 30.6.20238:40
And here we go again... takže mám koupit 12GB 3060 za 4500Kč, protože na ní mám bandwidth 422GBps? :­-D Jinak kolik má Apple M2 Max maximální RAM? Takže to natrhnutí prdele se fakt nebude dít a servery nebudou nahrazovány Apply... :­-D
Odpovědět2  0
haunter (193) | 30.6.20239:31
Jinak trošku pleteš jabka a hrušky... Epyc není výpočetní procesor, to je Threadripper, který dá na prdel všem Apple procesorům plus si tam můžeš dát daleko víc RAM a GPU taky kolik chceš ­(pro 192GB VRAM třeba 8x3090 za zlomek ceny jako ten Apple a násobně vyšším výkonem, btw bez nvlinku propustnost VRAM 1TBps­). A to skoro levněji, než ten M2 Ultra :D S možností navyšování dle požadavků projektu...
Odpovědět1  0
Son_of_the_bit (961) | 30.6.202312:18
Ty to nechápeš. Já neprosazuji Apple, ale poukazuji že když Apple M2 Max má brutální 8­-kanálové APU pro notebooky, tak kde je alespoň 4­-kanálové APU od AMD??? Nikde.

Proč to fut špuntují na 2­-kanálu když dávno dělají 4­-kanál APU pro PS5 a Xbox? Pak příjdou pitomý jabčáci a nathnou všem trenky s NTB které mají 4 a dokonce 8­-kanál paměti.

AMD má skvělé inženýry, ale ve vedení jsou naprostí pitomci.
Odpovědět1  3
kutil05 (677) | 30.6.202312:29
"AMD má skvělé inženýry, ale ve vedení jsou naprostí pitomci.­" Zajímavé AMD od situace, kdy mělo zkrachovat stále roste, ale vládnou mu pitomci. Možná jen vidí trh jako celek a ví na čem kolik vydělají...
Odpovědět1  2
Son_of_the_bit (961) | 30.6.202312:54
AMD zachránil jeden muž: legendární Jim Keller který má na svědomí architektury Zen 1, Zen 2 a Zen 3 ­(a tedy i z něj vycházející Zen 4­) odešel z AMD v roce 2015, ale vedení AMD dodnes těží z jeho práce před 8 lety.

Na Youtube s ním je několik rozhovorů, jak přesvědčoval inženýry v AMD že je možné navrhnout Zen 1, přestože mu většina tvrdila že to možné není. A teď mi řekni kdys naposled četl nebo viděl že CEO Lisa Su zmínila jeho zásluhy nebo nedejbože mu poděkovala.
Odpovědět1  2
kutil05 (677) | 30.6.202314:08
Tak jak je to napsané, to zní jako by po jeho odchodu už inženýři v AMD neměli žádnou práci. Pokud vím, tak v době návrhu ZEN 1 byl šéfinženýr, tedy jen rozhodoval, co budou dělat lidé pod ním a i kdyby byl do vývoje nějak víc zapojený, od té doby na dalších generacích bylo odvedeno hodně další práce a třeba centrální chiplet je něco, s čím se v návrhu ZEN 1 vůbec nepočítalo. Přitom v současnosti se pracuje jak na ZEN 5 tak i ZEN 6. Procesorové týmy jsou dva a troufám si tvrdit, že silnější než za jeho působení. Ten chlap má za sebou spoustu dobré práce, pracoval i na procesorech DEC Alpha ostatně z toho pak těžil i při práci na K8 a Athlonu 64, ale až tak bych jeho vliv na současné procesory AMD nepřeceňoval.
Odpovědět1  0
Son_of_the_bit (961) | 30.6.202314:39
Elon Musk je taky asi mamlas za kterého to všechno vymysleli obyč zaměstnanci, že? To poznáš tak, že ten kdo to vymyslel pak nemá problém jít do TV a tam o tom hodinu vyprávět. Tak poznáš vizionáře.

Však uvidíme co bude první CPU bez vlivu Kellera ­- Zen 5. Třeba se opět vrátí Bulldozer se 2x ALU :D Ale tak pitomí v AMD už naštěstí nejsou.

Otázka jestli to bude stačit na ARM když letošní X4 už má IPC o 33% vyšší než Zen 4, takže Zen 5 se příští rok s bídou leda dorovná. A to příští vyjde nová X5 která zase přidá těch obligátních 10% IPC. To by Zen 5 musel skočit s IPC o 44% aby se vyrovnal X5. O přeskočení X5 už nemůže být vůbec řeč.
Odpovědět0  1
kutil05 (677) | 30.6.202314:59
Na procesoru nebo grafickém čipu se od počátečního návrhu po uvedení na trh pracuje 4­-5 let, řekl bych tedy, že ten vliv na dení v AMD Mistr Keller už před lety ztratil.

K tomu IPC ARM když letošní X4. Pokud jde o celočíselné aritmetické a logické operace, tam ARM možná navrch má, ale pokud vím, jde jen o teorii. Nevím o tom, že by to reálné měření potvrdilo, protože žádný procesor s tímto jádrem zatím vyroben nebyl. Ale ve výpočtech v plovoucí řádové čárce a vektorových počtech už ARM X4 tak silný nebude. Reálně samozřejmě bude záležet i na implementaci dalších prvků, pouze jádro procesor nedělá ­- vnitřní propojení a konektivita.

S ohledem na zastoupení ARM v serverech se zatím AMD nemá čeho bát.
Odpovědět0  0
Son_of_the_bit (961) | 30.6.202317:00
1­) Keller sám řekl, že Zen 3 je ještě jeho návrh. Řekl bych že on ví moc dobře na čem pracoval na rozdíl od tebe.

2­) Jo přesně, ta X4 má 8+3 ALU tedy zvládne až 11 instrukcí pro INT výpočty, což je masakr a víc jak dvojnásobek oproti 4+1 u Zenu 4. Ovšem dvojnásobné IPC to nemá, takže ty jednotky nebudou zdaleka tak vytížené jako u Applu M2 nebo toho Zenu 4.

Když si vezmeš Cortex A76 co měl 3+1 a hned rok na to A77 měla 4+2, což bylo o 50% víc, ale IPC vzrostlo jen o 17%. Ale pak přišla X1 která z 4+2 ždímala o 18% víc a nakonec X2 ze stejné 4+2 vyždímala dalších 13% IPC. Celkově to podle Geekbench 6 vychází, že X2 má o 56% vyšší IPC než A76 a to více méně odpovídá tomu teoretickému navýšení ALU jednotek o 50%.

3­) Co se týče FPU a SIMD výkonu, tak třeba A76 má jen 2x FPU­/ SIMD 128­-bit, zatímco od X1 to zvýšili na dvojnásobek 4x FPU ­/ 128­-bit SIMD. Geekbench 6 je včetně FPU výpočtů, ale evidentně na IPC to moc vliv nemá.

Jinak Zen 4 má 2x 256­-bit FMA SIMD a ta X1 má 4x FMA 128­-bit SIMD. FMA píšu proto, aby tady někdo nevyrukoval s tím, že Zen 4 má 4x 256­-bit ale FMA umí jen dvě z nich. Ty zbývající dvě umí jen sčítání ADD, což je pozůstatek ze Zen 1­/2 kdy se FMA dělalo pomocí dvou jednotek MUL a ADD. Pokud bys jen sčítal hodnoty tak Zen 4 bude umět teoreticky 4x256­-bit.

Jinak samozřejmě ARM má revoluční SVE vektory, které umí až 2048­-bit vektory a které x86 nemá a dalších 5 let mít ani nebude. SVE je revoluce směrem k super­-počítačům a konkurence výpočetním GPU. Už ten první ARM ve Fugaku uměl drtit GPU Volta od Nvidie a to měl jen 2x512­-bit FMA. x86 zatím proti tomu nemá vůbec nic, takže musí vyvíjet GPU akcelerátory. Ale Japonci ukázali že CPU dokáže vydrtit i GPU když má kvalitní RISC ISA základ a zkombinuje se to s chytře navrženýma SVE vektorama.

4­) To IPC jádra X4 není žádná teorie. CPU je binární stroj, takže to dokážeš simulovat se 100% přesností. Klidně spustí celý benchmark Geekbench 6 na virtuální simulované X4. Bude to pomalé a poběží to několik hodin, ale takto se dělá vývoj. Ráno přijde inženýr do práce a vidí jaké to má IPC a hned vidí jestli to co spáchal byl dobrý nápad nebo ne.
Odpovědět0  3
kutil05 (677) | 30.6.202319:13
Co to je za blábol 8+3 ALU? AGU se nepoužívá pro běžné výpočty. A právě jste si naběhl, protože jádro X4 z těch 8 ALU, je 6 jednoduchých ADD, takže toto zahrnout do plnohodnotných ALU, ale u ZENu ze stejného důvodu nepočítat polovinu FMA je hodně velká prasárna. Blokové schéma ARM X4 je k dispozici úplně stejně jako pro AMD. A ještě k té AGU ­- Address generation unit, z toho je snad patrné, co dělá a že není možné ji považovat za Arithmetic logic unit.
Odpovědět0  0
Son_of_the_bit (961) | 30.6.202321:09
Hlavně v klidu ať ti nerupne cévka.
Co sem pleteš AGU prosím tě? Nikdo tady o AGU nemluvil. Se podívej na schéma té X4 a tam uvidíš že 8+3 znamená 8xALU + 3x Branch Unit.

AGU nic nepočítá, stejně jako cache jenom zásobuje výpočetní jednotky daty. Může fungovat CPU bez AGU? Ano může, takže je to sekundární činnost.

FMA = Fused Multiply Accumulate .... tedy násobení se sčítáním v jedné instrukci. Zen 4 má jen 2x 256­-bit FMA. Ty další 2 jednotky umí jen SČÍTAT takže z logiky věci nemůžou být FMA. Než se začneš veřejně ztrapňovat tak by bylo dobré použít Google a zjistit si co to vlastně FMA je.

FMA je výhodné jak z důvodu častého výskytu násobení s následným sčítáním, tak zejména kvůli HW implementaci. Sčítání se dá provést za 1 takt, takže to je skoro zadarmo narozdíl od násobení které trvá několik taktů. Tudíž je velmi výhodné udělat z MUL jednotky rovnou plnohodnotnou FMA. Zen 2 měl 2x MUL + 2x ADD. Pak v AMD někdo zapnul kedlubnu a konečně je napadlo udělat 2x FMA + 2x ADD. Třeba se jim rozsvítí u Zen 5 a udělají 4x FMA tak jak to mají ARMy už od A75 z roku 2017.
Odpovědět0  0
kutil05 (677) | 30.6.202321:38
Branch unit počítá skoky programu, je to tedy obdoba AGU.

"Třeba se jim rozsvítí u Zen 5 a udělají 4x FMA­" Tak o tom dost pochybuji. Protože už jsem viděl spoustu schémat procesorových jader a prakticky vždy je to tak, že jednotky v dané sekci mají rozdělenou funkčnost. Pravděpodobně se při tom vychází z toho, jak často je daná funkce potřeba a jaké funkce s ní společně počítány. Pouze pokud by daná jednotka byla jediná, tak by musela umět vše, to je případ POWER procesorů, kde v každém půljádře je vše důležité 4x, tak aby vlákna mohla běžet odděleně a jen některé části jsou sdílené. Procesor pak může fungovat s plným počtem čtyřvláknových jader, nebo polovičním osmivláknových...

A důvod proč při vyšším počtu ALU ­/ FPU ­/ vektorových či maticových jednotek na jádro nejsou stejné, je velice jednoduchý. Je za tím úspora tranzistorů a tedy výsledné plochy, navíc takové jednotky můžou funkce vykonávat s menším počtem cyklů a jsou tak rychlejší a navíc jich při vyřešení dekodéru a předpovědi programových skoků může být víc paralelenlě.

Odpovědět0  0
Son_of_the_bit (961) | 1.7.20238:09
Než se začneš tady ztrapňovat tak si zjisti co to je AGU ­- ta se stará o Load­/Store instrukce aneb přenost dat z RAM. Nevím jestli jsi někdy dělal v assembleru, ale asi bys měl protože tohle se učí na střední škole. Přenos dat do vnitřní paměti CPU ­(neboli registrů­) je úplný základ funkce CPU.

Asi tě zmátlo schéma Zen 4, kde záměrně zamíchali mezi ALU a Branch jednotky i ty AGU. To je známý trik AMD, který použili už u FX bulldozeru, aby to vypadalo že mají 2x víc výpočetních jednotek. Podívej se na Zen 2 kde to ještě nedělali, pěkně oddělené ALU, AGU a FPU a srovnej to se Zen 3­/4. Zjistíš že ve skutečnosti přidali jen jeden port pro samostatnou Branch Unit.


Fakt je ten že jádro ARM Cortex X2 má IPC jako Zen 4 a přitom je z roku 2021, tedy přišlo o rok dřív než Zen 4.
ARM Cortex X3 má IPC vyšší o 19% než Zen 4 a to jsou naměřená data reálného CPU v Samsung Galaxy S23 v ST Geekbench 6, žádné simulace.
ARM Cortex X4 by měl mít vyšší IPC o 33% než Zen 4 a první reálné testy budou koncem roku. Uvidíme.

Fakt je ten, že x86 jsou zaostalé a jediná jejich výhoda jsou vysoké frekvence. ARM kdysi dávno udělal na 7nm prototyp A72 která místo 1,5 GHz dokázala běžet na 4,2 GHz, což není zase tak těžké protože pipeline uzpůsobená pro nízké napětí je zároveň schopná dosahovat vysokých frekvencí. Ale nikdo o to neměl zájem, tak s tím přestali. Ale byla by legrace kdyby ARM dosahoval 7 GHz, protože při tom vysokém IPC by to bylo kladivo na x86 v desktopu.
https:­/­/www.anandtech.com­/show­/14914­/arm­-tsmc­-demo­-7nm­-chiplet­-system­-w­-8­-cortexa724ghz­-on­-cowos­-interposer
Odpovědět0  0
kutil05 (677) | 1.7.202313:41
Pokud by jsi četl ten článek s rozhovorem s panem Kellerem, pochopil by jsi, že takto jednoduché to není. Navíc Pokud má X4 2x tolik ALU, ale IPC jen o 33 % vyšší, něco podle tvé teorie nehraje.
Odpovědět0  0
Son_of_the_bit (961) | 3.7.202319:59
Však vytíženost ALU jednotek není stejná. Nová architektura ji má nižší, ale další evoluce jádra ji vylepšuje a těží z nich víc a víc.

Se podívej na IPC 4x ALU Intel Haswell a IPC Intel Tiger Lake taky se 4xALU.
Nebo 4+2 A77 a poslední 4+2 jádro X2 .... 33% nárůst IPC ­(a ALU jednotky mají víc funkcí a některé instrukce X2 zvládá 5x rychleji než A77, třeba 64­-bit MUL se 128­-bit výsledkem­)

https:­/­/developer.arm.com­/documentation­/PJDOC­-466751330­-14955­/latest/
Odpovědět0  0
kutil05 (677) | 30.6.202319:22
Ještě takový detail, IPC není dáno pouze počtem a hrubým výkonem ALU a FPU­/FMA jednotek, ty pokud nenají dost dat, tak výkon logicky trpí. Dekódování instrukcí a předpověď větvení programu v tom dost hraje roli. Proto není vůbec jednoduché udělat široké jádro. Proto není možné s jistotou tvrdit předem bez otestování, jaký výkon přesně bude a ten se navíc liší i podle zpracovávaného programu...
Odpovědět0  0
Son_of_the_bit (961) | 1.7.20238:36
Cortex X4 ..... dekoduje 10 intrukcí­/takt
AMD Zen 4 ... dekoduje 4 instrukce­/takt

Už ti konečně dochází jak je x86 totálně zaostalé?
Odpovědět0  0
kutil05 (677) | 30.6.202315:03
Co se Bulldozeru týká. Ten procesor měl původně vypadat úplně jinak ­- měl být daleko výkonnější ­- celé jádro mělo být širší, ale nebylo dost peněz na vývoj. Kdybych si měl do někoho kopnout, je to Intel. S tím, kolik peněz mají, je to současné plácání na místě ostuda.
Odpovědět0  0
Son_of_the_bit (961) | 1.7.20239:20
Původně to mělo být lepší jak Lamborghini, ale bohužel kvůli úsporám nám z toho vyšel Trabant. Jestli takové pitomosti věříš, tak jsi blázen co neví jak probíhá vývoj dle nějaké zadané koncepce.

Redukovat počet ALU, jakožto hlavních výpočetních jednotek pro skalární INT IPC, taková pitomost se ve světové historii vývoje CPU objevila pouze jednou ­- AMD FX Bulldozer. Taky kvůli tomu AMD šla téměř do krachu a prosili Kellera aby je šel zachránit.
Odpovědět0  0
kutil05 (677) | 1.7.202313:48
Podle toho co vím, nejvíc redukovali FPU­/vektory. Ale znovu pro ty, co moc nechápou. Vysoký počet ALU je k ničemu, když je nedokážete nakrmit daty nebo mikroinstrukcemi.
Odpovědět0  0
Son_of_the_bit (961) | 1.7.202314:19

Hlavně že u K10 alias AMD Phenomu zvládali krmit 3x ALU. To chceš jako tvrdit že inženýrům v AMD umřela půlka mozku a zároveň si smazali harddisky s dizajnem K10, že najednou ztratili schopnost nakrmit 3x ALU? Prostě to navrhoval neumětel a těch je v korporátech hromada.

Bulldozer měl naopak mnohem silnější FPU­/vektory protože Phenom podporoval pouze starší 128­-bit SSE4, kdežto Bulldozer uměl 256­-bit AVX. BD měl vpodstatě více jak 2x silnější FPU­/vektory. Musel mít protože FPU byla sdílená pro ty dvě zkriplený mini jádra.


Co věta to lež. U vás google nevede obrázky, že si nedokážeš najít schema bulldozeru nebo co? Generátor náhodných odpovědí by měl víc pravdivých tvrzení než ty.
Odpovědět0  0
kutil05 (677) | 1.7.202314:29
Jenže Bulldozer je úplně odlišně konstruován, jsou to vlastně dvě jádra se společnou FPU částí. A pokud si dobře pamatuji, největší problém byl právě s to sdílenou částí. Ta poslední jádra, která už dávali jen do APU byla lepší než původní Bulldozer, ale ten si lidé nejvíc pamatují. Navíc to jádro bylo primárně určeno do serverů a to byla ta největší chyba v desktopu. Proto to pak hnali do vysokých taktů, aby to dokázalo nějak konkurovat intelu.
Odpovědět0  0
kutil05 (677) | 30.6.202319:18
On jako jeden člověk dokáže sám navrhnout něco tak složité jako celý procesor, nebo aspoň jeho jádro sám? A pokud vede tým inženýrů, tak jasně že řekne, že ten procesor navrhnul.
Odpovědět0  0
Son_of_the_bit (961) | 30.6.202320:48
Podívej se kolik ALU má Kellerův A7 Cyclone co navrhl pro Apple a srovnej to se Zen 1 a 2. Budeš překvapen kolik ty CPU mají společného co se týče architektury. Muselo to být tragikomické přesvědčovat AMD inženýry že něco jako Zen 1 jde navrhnout, protože Keller nemohl říct v Applu jsem udělal A7 a zkopírujte si to.

Stejně jak mluvíš ty, tak mluví lidé co v životě nic nedokázali protože jenom umí plivat na ty co něco dokázali. To je to samé jak Elon Musk, ten ty rakety taky osobně nekreslí v CADu ale přesto se dá říct že bez něj by nikoho nenapadlo přistávat s raketou jak s nějakým dronem.
Odpovědět0  0
kutil05 (677) | 30.6.202321:25
Já na nikoho neplivu, Jim Keller toho udělal hodně, ale ty jsi o něm psal, jako kdyby ten všechny procesory na kterých kdy pracoval, navrhnul sám. A asi by ses divil spíš ty, ale všechny výkonné procesory mají spoustu věcí společných, prostě proto, že to tak nejlépe funguje. Nejvíc je to vidět u moderních RISC procesorů. Když pominu POWER, což je čistě dílo IBM, tak ty ostatní včetně MIPS, PA RISC, SPARC, Alpha ­(na něm Keller taky pracoval­) a právě ARM pochází z university Berkley ­(ve skutečnosti jich bylo a je násobně víc­). takže logicky mají společné prvky. AMD taky mělo RISC 29000 i Motorola měla řadu 88000 a dokonce Intel i960, ­(i860 je opravdu něco jiné RISC, VLIW­).

Samozřejmě současné procesory Intel a AMD mají víc podobných prvků, protože pracují se stejnou instrukční sadou... Je to jako porovnávat automobily různých značek a tvrdit, že si jsou nějak moc podobné, prostě za ty desítky let už konstruktéři ví, co funguje a co ne... Je i lepší srovnání slavný Concorde a Tupolev Tu­-144 o kterém se tvrdilo, že je kopie s některými změnami. A pak přišli na to, že to tak není, protože dělali simulace a zjistili, že obě letadla mají jediný možný tvar pro dané rychlosti letu.

Počáteční nápad je důležitý, ale bez podpůrného týmu by žádný velký projekt vzniknout nemohl. Druhá věc, víme o lidech, kteří ten nápad měli první a nebo ho jako první úspěšně realizovali, ovšem může být řada lidí, co měli podobný ­(možná i lepší­) nápad taky, ale neměli možnost ho úspěšně zrealizovat. Vždy se mluví jen o těch prvních.
Odpovědět0  0
Son_of_the_bit (961) | 1.7.20238:33
Vtip je v tom, že Elon začínal tak, že žádný podpůrný tým neměl a všechno si naprogramoval sám. Takže nejen že měl vizi co chce vytvořit, ale pěkně si to všechno odmakal sám. Když potom najímal další programátory tak ho nikdo nemohl opít rohlíkem, že to nejde atd. Kdyby na to přišlo tak vezme do ruky TIG svářečku a ty nerezové plechy na té raketě začne vařit sám. Stejně tak Keller začínal v DEC od píky, od navrhování low­-level obvodů až po high­-level architekturu, takže ho nikdo v AMD nemohl opít rohlíkem že něco nejde.

Lidí s geniálním nápadem jsou miliony = ve skutečnosti se jedná o lidi, kteří mají větší ego než vědomosti.
Patologických lhářů je v populaci dle statistik 5,2% což z 8 miliard lidí dělá hezkých 400 milionů geniálních zneuznaných vynálezců.
Odpovědět0  0
Budman (236) | 2.7.202319:44
Ale prdlačky, nevím, kdo s nápadem na svislé přistání přišel první, historii kosmounatiky sice nějak deatilně nestuduji, ale i já si pamatuji na Delta Clipper z počátku devadesátek, který se o svislé přistání snažil, přínos Elona je hlavně v tom, že byl ochoten do toho sypat ty prachy prostě tak dlouho, dokud to nezačalo fungovat ­- a samozřejmě měl výhodu v zase o pár dekád novější technologii.
Odpovědět1  0
Akulacz (182) | 30.6.202323:59
Opravdu nám prozraď co děláš, když nemáš žádnou reálnou představu o světě...
Netvrdím že Jim či Elon jsou pitomci ale v reálu to probíhá trochu jinak než si představuješ... Tito lidé reálně už nic nevymýšlejí krom směru, kterým se ubírat a odpracují to za ně v reálu ti bezejmenní lidé dole. A i tito ­"vizonáři­" je třeba v 90% případů pošlou na špatnou cestu ale o těch už v análech většinou nenajdeš zmínku, pokud se nejedná o průser, který dokáže firmu položit. Hodně často s onou vizionářskou myšlenkou přijde i ten flájboj Eda, ale toho nikdo poslouchat nebude, až když to přijde tlumočit ten Jim či to přijme Elon tak se začne něco dít... Jen vidíš to vizionářství jen z úzkého podhledu, ale ano ať to přijde z dola, co z jejich hlavy, toto lidé musí rozhodnout zda jít daným směrem nebo to zaříznout AC je to myšlenka mnohem pokrokovější...
Mě třeba mí nejspíše přiteoublí rodiče učili říkat pravdu a dělat věci správně, což se příliš nenosí a těžko prosazuje... Učili mě i chovat se slušně, ale to se s předchozími hodnotami neslučuje, pokud člověk nehodlá vše dělat sám... Kolega to teď zkusil dělat jako já... Dostal 10000€ a šel zkusit štěstí jinde, jelikož byl pevně zařazen v organizační struktuře. U mě v reálu ví co dělám aktuálně asi 3 lidi z 20k, takže můžu řvát na lidi a posílat je kamkoliv pokud nedělají co mají. A ten člověk co mě do firmy přijal ­(a svému zástupci řekl že nikdy nesmí dopustit abych odešel­) ač věděl že jsem svým způsobem psychopat, tak také věděl že jen ten můj řev na kohokoliv dokáže ušetřit stovky tisíc € za rok... To by se dalo brát taky jako svým způsobem vizionářství když člověk ví kdy a koho zjebat...
Odpovědět0  0
cdwN (584) | 2.7.202321:15
Uřvanejch dementů, co umí hovno je tady v republice dost
Odpovědět0  0
unreall (440) | 3.7.202316:28
Ja by som ta teda rozhodne pri prvom zarevaní nakopal do riti. Revať môžeš doma na ženu keď chceš, nie po zamestnancoch. Niektorí šašovia sa radi pasujú do role bohov, ale zabudli, že ich tvorí ten istý materiál, ako toho najposlednejšieho človeka niekde dole.

Nabudúce si zober bič do práce dilinko a nezabudni s ním mávať… zlomil by som ti ruky hneď v pondelok rano 🙄
Odpovědět1  0
kutil05 (677) | 3.7.202317:07
Pokud vedoucí pracovník nemá přirozenou autoritu, řevem si ji nezíská. Na mě někdo řvát, tak si to líbit nenechám. Pokud neumíte s lidmi jinak jednat, tak ty podřízené lituji. A s tím že pravda se nenosí... No pokud podle toho i uvažujete, je lepší se vám obloukem vyhýbat.
Nevím co to řvaní reálně ušetří, až se lidé z toho pracovního prostředí psychicky sesypou, může se to i prodražit. Upřímně nejste jen psychopat, je to daleko horší.
Odpovědět1  0
kutil05 (677) | 30.6.202312:26
"natrhne trenky i serverovému Zen 3 Epycu­" a kterému? Smím­-li to vědět. Většinou vychází nastejno s desktopem v podobě AMD Ryzen 9 7950X...
Odpovědět0  0
Son_of_the_bit (961) | 30.6.202312:57
V paměťové propustnosti natrhne trenky Z3 Epycu, protože oboje má 8­-kanál, ale Apple má DDR5 kdežto Z3 má jen DDR4. Co na tom nechápeš?

Je to ostuda že NTB naplácá naprdel serverovýmu Epycu za statisíce.
Odpovědět0  1
1  2  
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.