Google má nový manifest, je na čase už opravdu řešit etiku umělé inteligence?
11.6.2018, Jan Vítek, aktualita
Google nedávno svedl souboj se svými vlastními zaměstnanci, kteří vedení firmy řádně omlátili o hlavu firemní heslo "Don't be evil". Firma pak vytvořila nový manifest s pravidly o vývoji AI, který by možná měl být v nějaké podobě přijat všeobecně.
O firmě Google se v posledních dnech a týdnech mluvilo především ve spojení s projektem Maven, na nějž reagovala řada zaměstnanců tak, že podala výpověď neboť nechtěla mít nic společného s vývojem AI softwaru pro drony amerického letectva. Vedle toho probíhaly protesty poukazující i na firemní motto Don't be evil, které však Google záhy poté odstranil. Nicméně protestující nakonec dosáhli svého a projekt Maven byl v Googlu ukončen a nyní vedení firmy přispěchalo i s manifestem, který se týká právě umělé inteligence.
Google v novém dokumentu vyjmenovává sedm klíčových hodnot, jichž se chce v budoucnu držet a také udává způsoby využití AI, které pro něj budou nepřístupné.
Obecné záměry firmy při vývoji a nasazení AI jsou takové, aby výsledek byl obecně příznivý pro společnost, vyvaroval se tvorby či posilování různých předsudků, vyvíjen a testován byl pro co největší bezpečnost, byl zodpovědný lidem, zahrnoval principy práva na soukromí, dodržoval vysoké vědecké standardy a byl k dispozici jen těm, kteří se těmito principy budou sami řídit.
Můžeme tak říci, že Google jen rozepsal a blíže specifikoval své staré motto "Nebuď zlý". Systémy umělé inteligence od této firmy by tak neměly být psychopatické. Dále bylo uvedeno, že AI systémy Googlu mají být tvořeny i na základě zpětné vazby od lidí a zahrnovat mechanismy pro jejich pozdější vyladění právě na základě požadavků lidí. Ti tak budou mít plnou moc nad daty zpracovávanými umělou inteligencí s odpovídajícími bezpečnostními mechanismy.
Google také chce průběžně zveřejňovat výsledky svého výzkumu umělé inteligence, což představuje i to, že dá k dispozici příslušné technologie a služby, ovšem v souladu se závěrečným bodem manifestu, a sice že je nedá k dispozici tak, aby mohly být v cizích rukou škodlivé. To je zajímavý bod vzhledem k tomu, že zneužít se dá v podstatě vše.
Firma také výslovně uvedla, že se nebude podílet na AI výzkumu, který zahrnuje zbraně a vůbec cokoliv, co může škodit lidem. Pokud jde o "šedé" či nevyjasněné oblasti, zde budou muset pozitiva jednoznačně převažovat nad negativy. Na druhou stranu, Google bude i nadále spolupracovat s americkou vládou a vojenskými silami na jiných technologiích, které AI nezahrnují. Jde například o kyberbezpečnost, zdravotnictví nebo záchranářství.
S těmito pravidly skutečně lze souhlasit, i když jsou spíše jen vágní a nepředstavují nic konkrétního. Ostatně vývoj umělé inteligence je takový, že konkrétní ani nemůžeme být, protože si lze těžko představit, co ta zvládne za rok, natož pak v horizontu deseti let. Vývoj mnoha technologií přitom už několikrát předčil schopnost politiků přinést včasný právní rámec, což se u nás týkalo především pirátství a aktuálně jde ve světě například o autonomní řízení vozů, což je ostatně forma AI, kterou bude třeba nějak uchopit a uspokojivě řešit třeba to, kdo pak bude odpovědný za škody a újmu na zdraví a životech. Těžko ji přijme člověk, který v bude sedět v automobilu bez volantu a pedálů.
Nyní se však mluví o významu AI pro národní bezpečnost zemí a ten by mohl brzy vzrůst na úroveň ozbrojených složek včetně nukleárních zbraní. Nemusí to trvat dlouho, aby se začaly rýsovat mezinárodní dohody ohledně nasazení systémů umělé inteligence a aby se utvořily v řadě zemích příslušné organizace, které to budou sledovat. Greg Allen (Belfer Center) k tomu řekl, že některé technologie jsou prostě a jednoduše tak mocné, že jsou pro vojenské složky přímo neodolatelné a právě mezi ně patří i umělá inteligence. Vypadá to tak, že AI brzy ovlivní vojenskou oblast stejně jako kdysi střelný prach, bitevní lodě, letadla či právě atomové zbraně a postoj Googlu na tom moc nezmění.
Zdroj: Extremetech, BigThink