Druhá generace Tensor Processing Unit od Googlu bude použita stejně jako první pro firemní služby, jako je Google Translate, Google Photos a další. Firma k tomu říká, že už dříve učinila velký pokrok s využitím dostupného hardwaru jiných firem, ale to jí nestačilo, takže si navrhla vlastní hardware šitý na míru svým potřebám. Nová TPU přitom umožní trénovat nové hluboké neuronové sítě a stejně tak je i provozovat.

Google také uvádí, že nová TPU už jsou zcela funkční a právě jsou nasazována v systémech Google Compute Engine. Každé z těchto TPU má přitom nabídnout pro účely AI výkon 180 TFLOPS a dohromady budou tvořit celé AI superpočítače, které dostaly označení TPU Pod a využívají jistou speciální vysokorychlostní síť propojující celkem 64 jednotek TPU, které tak mají výkon dohromady 11,5 PFLOPS.
Nová TPU už byla také srovnána s tím, co nabídnou moderní GPU, i když podrobnosti nebyly zveřejněny. Google prozradil jen to, že zaznamenal dramatické zkrácení času, které zabere trénování neuronových sítí. Zkusil již srovnat systém vybavený 32 komerčně dostupnými GPU (předpokládejme, že je o NVIDIA), kterému měl jistý úkol zabrat celý den. To má nyní za odpoledne zvládnout jeden TPU Pod, pokud využije osminu své výpočetní síly.

Bližší informace o srovnání konkurenčního hardwaru s novými TPU se nedozvíme, stejně jako nic o tom, jaké parametry nové čipy od Googlu mají. Je ale zřejmé, že TPU nemají v hledáčku zcela stejný segment AI trhu jako NVIDIA, která se snaží svými GPU pro AI účely zaplavit co nejvíce různých oborů lidského vědění. V podstatě jde o všechny, kde se pracuje s nějakými daty. Google se namísto toho se svými TPU zaměřuje zatím především na své vlastní potřeby.
Zdroj: wccftech

Google také uvádí, že nová TPU už jsou zcela funkční a právě jsou nasazována v systémech Google Compute Engine. Každé z těchto TPU má přitom nabídnout pro účely AI výkon 180 TFLOPS a dohromady budou tvořit celé AI superpočítače, které dostaly označení TPU Pod a využívají jistou speciální vysokorychlostní síť propojující celkem 64 jednotek TPU, které tak mají výkon dohromady 11,5 PFLOPS.
Nová TPU už byla také srovnána s tím, co nabídnou moderní GPU, i když podrobnosti nebyly zveřejněny. Google prozradil jen to, že zaznamenal dramatické zkrácení času, které zabere trénování neuronových sítí. Zkusil již srovnat systém vybavený 32 komerčně dostupnými GPU (předpokládejme, že je o NVIDIA), kterému měl jistý úkol zabrat celý den. To má nyní za odpoledne zvládnout jeden TPU Pod, pokud využije osminu své výpočetní síly.

Bližší informace o srovnání konkurenčního hardwaru s novými TPU se nedozvíme, stejně jako nic o tom, jaké parametry nové čipy od Googlu mají. Je ale zřejmé, že TPU nemají v hledáčku zcela stejný segment AI trhu jako NVIDIA, která se snaží svými GPU pro AI účely zaplavit co nejvíce různých oborů lidského vědění. V podstatě jde o všechny, kde se pracuje s nějakými daty. Google se namísto toho se svými TPU zaměřuje zatím především na své vlastní potřeby.
Zdroj: wccftech