Microsoft a OpenAI věnují 2 mil. USD na boj proti předvolebním deepfake, budou je i detekovat
9.5.2024, Milan Šurkala, aktualita
V tomto roce bude v různých volbách hlasovat teoreticky až 2 miliardy lidí. S velkým úspěchem generativní AI přichází ale i rostoucí problém s deepfakes. Microsoft a OpenAI chtějí přispět v boji proti tomu. Budou však 2 miliony USD stačit?
Deepfakes aneb falešná videa, která často prezentují známé osobnosti dělat nebo říkat něco, co neudělaly nebo neřekly, nejsou ničím novým. S podstatně lepšími schopnostmi moderních systémů generativní AI ale roste i riziko jejich zneužití. Toto hrozí především u voleb, kterých se po celém světě koná několik, a jen letos to čeká až 2 miliardy voličů po celém světě. Indická volební komise už varovala politiky v zemi, aby se zneužívání tohoto prostředku vyhnuli stejně jako jiných forem dezinformací. Zda taková výzva může uspět, o tom můžeme spíše pochybovat.
Proti zneužívání těchto systémů se ale postavili i jejich vlastní tvůrci, jako jsou společnosti Microsoft a OpenAI, jejichž generativní AI pro obraz (DALL-E) a video (Sora) jsou až nebezpečně kvalitní. Tyto firmy se rozhodly věnovat 2 miliony USD pro Societal Resilience Fund, který má zlepšit vzdělání voličů a zranitelných komunit. Jeden z podporovaných projektů je Older Adults Technology Services from AARP (OATS), který se stará o vzdělávání Američanů ve věku nad 50 let ohledně AI a jiných technologií. Má jim lépe přiblížit i úskalí generativní AI.
Dále bude mezi podporovanými Coalition for Content Provenance and Authenticity (C2PA), která má na starosti prokazování autenticity digitálního obsahu, zavádí speciální vodoznaky, které jsou už používané některými digitálními fotoaparáty, aby se prokázala historie snímku. Jinak řečeno, neprokážete sice, že je něco nepravé, ale můžete prokázat, že je něco pravé. OpenAI navíc testuje detektor snímků vytvořených pomocí jejího vlastního systému DALL-E 3. Podle prvních testů byl schopen správně detekovat 98 % obrázků vygenerovaných pomocí této generativní AI a 0,5 % snímků nevytvořených AI pak označil nesprávně jako vytvořené pomocí AI. Na ostatní generativní modely to ale moc nefunguje, tam dokázala AI snímky identifikovat správně jen v 5-10 % případů.
Mezi další patří International Institute for Democracy and Electoral Assistance (International IDEA), která bude provádět vzdělávání ohledně AI globálně a Partnership on AI (PAI) se pokusí o nastavení "osvědčených postupů" ohledně zodpovědného vývoje systémů AI. Myslíte si, že něco takového bude stačit?