Na Intel dobrý, ale stále - 8060s bude mít na CES další generaci... takže trošku pozdě. Pro srandu jsem pustil Time Spy na mém Ryzen AI 350 (860M) a 2812 bodů. Jde o to za kolik to budou prodávat.
Určitě, 11kW + 4kW ztráta, to máme 15kW :-D V ideálních podmínkách 1.1kW ztráta, které nebudou skoro nikdy... to je dobrý přímotop, tím bychom mohli vytápět i celý dům v zimě :-D
A ani to nešlo poznat, co? :-D Ono je totiž potřeba používat lokální model, s RAG a kontextem celého projektu (Takže Scout nebo Maverick), jinak to nemá smysl - všechny cloudové služby jsou krátké.
To je dobrý žvást. Asi jako napsat, že auto, které má maximální rychlost 180km/h má v rychlosti 180km/h problém a přehřívá se... Vůbec. V datacentrech je vše naddimenzované.
Mám Dell Precision 5690, který je velmi dobře chlazený. Umí zátěž až 230W a okolo tohoto (možná 300W s vapor chamber) je IMHO maximum co umí jakýkoli laptop uchladit - součet CPU+GPU. Prostě u takové GPU tam omezení musí být... resp. nemá smysl ji tam dávat.
Ugreen dělá super produkty a mívá na to i 30% slevy. Teď mám Dell 5690 a 165W se 185H a Ada 2000 8GB, přes USB-C nemá problém pápnout... a baterie se pomalu vybíjí při max. zátěži :-D
AMD je dost pozadu hlavně se SW... nastavit ty karty a systém je peklo... teď jsem si chtěl rozjet 32GB W9100 a je to peklo... na 3090 během pár sekund není problém...
To je jako mít pneumatiky z 400kW EV na Fabii... Fabii to výkonu nepřidá :-D CUDA je prostě cca 2.5x rychlejší a vždy bude lepší a například pro datacentra daleko efektivnější to napsat v nativním jazyku... je to vázané na HW...
GPT4 jsem zrušil, Gemini je na tom s nestabilitou a nespolehlivostí podobně. Oblíbil jsem si lokální LLM, aktuálně Mixtral. LLaMA taky dávala dobré výsledky, těším se až vyzkouším :) 2x2080Ti v nvlinku, 70tflops ve fp16 :)
Pokud se stále víc vyplatí pouštět AI na RTX 2080 Ti, než na 3 nebo 4 řadě, je s marketingem nVidie něco fakt špatně :D Sorryjako, ale ořezávat FP16, nvlink apod., tím si docela podřezávají větev :D