Google AI Overview má potíže, radí nesmysly jako lepit sýr na pizzu lepidlem
3.6.2024, Milan Šurkala, aktualita
Google měl už několik přešlapů se svou generativní umělou inteligencí a problémy pokračují. Jeho nová funkce AI Overview totiž byla několikrát přistižena, že ukazuje nesmysly. Neumí totiž rozeznat ironii a záměrné provokace.
Společnost Google nemá se svými systémy umělé inteligence moc štěstí. Jednak je za konkurenčním OpenAI technologicky pozadu, jednak zaznamenala několik přehmatů, nicméně ty se nevyhýbají ani konkurenci.. Když představila systém Bard, v reklamě na něj se Googlu povedlo zveřejnit takovou odpověď, která byla faktickou chybou, a systém si tak akorát uřízl při svém uvedení ostudu. Novější systém Gemini také není úplně bez potíží. Pohání totiž novou funkci AI Overview, která zobrazuje ve vyhledávání výsledky vytvořené pomocí generativní AI, přičemž občasné chyby asi nikoho nepřekvapí, některé ale dost pobaví (a také vyděsí možnými důsledky, pokud se jimi někdo bude skutečně řídit).
Happy to report NO movement or sliding of the cheese pic.twitter.com/DKdCa6LUap
— Katie Notopoulos (@katienotopoulos) May 24, 2024
Z poslední doby to byly třeba případy, kdy AI Overview doporučil pojídat kameny, protože je to zdravé. Další případ pak řešil způsob, jak zajistit, aby sýr na pizze lépe držel a neodtrhával se. Systém doporučil do omáčky, kterou se pizza potře, přidat osminu šálku s netoxickým lepidlem, což mělo dle AI vylepšit konzistenci omáčky, která by sýr lépe přichytila k těstu. Katie Notopoulos to na sociální síti X dokonce z legrace zkusila a podělila se o přípravu i dojem z ochutnávky. Pochopitelně ji nesnědla celou, aby se jí neudělalo špatně. Oba dva tyto případy se do AI dostaly patrně ze satirických článků a komentářů na internetu. Např. nápad na lepidlo do pizzy se objevil před 11 lety na Redditu. AI Overview si vymýšlí i jinde. Barracka Obamu označil za prvního muslimského amerického prezidenta.
V minulosti měl Google problém také se svou obrazovou generativní AI. Jak už je dnes obvyklé, vše musí být politicky korektní, někdy se to ale přehání, takže jsme tu např. měli situace, kdy systém na příkaz o vygenerování německých vojáků z roku 1943 do těchto rolí hyperkorektně dal i Afroameričany nebo Asiaty.
Toto vše podkopává důvěru v Google ohledně toho, jak vyhledává a prezentuje informace. "Googlování" s takovou může být v budoucnu ne znakem ověření faktů ze zdrojů, ale o vymýšlení si nesmyslů. Google tyto problémy přiznává a přidal i vysvětlení proč k nim došlo (výše zmíněné satirické komentáře z internetu, které mohou působit potíže). Správně také poznamenává, že internet zajímají především přešlapy a nikoli úspěchy těchto systémů. Někteří si tak nyní z Googlu dělají legraci, ale i tady je potřeba se mít na pozoru, neboť se objevují "screenshoty" odpovědí Gemini, které jsou podvržené, uměle vytvořené, a jde o záměrné snahy Google zesměšnit odpověďmi, které systém nikdy nedal.