Google má 5 bezpečnostních pravidel pro vývoj umělé inteligence
24.6.2016, Jan Pánek, aktualita
V umělé inteligenci je sice velký potenciál pomoci lidstvu, ale zároveň i potenciál lidstvo zničit. Google proto přišel se základními pravidly, jak se bude jeho umělá inteligence chovat, aby nevznikaly problémy.
Tato pravidla sice přímo neříkají, že roboti nemají zničit lidstvo, ale z velké části k tomuto účelu směřují. Člověk by pravidla přitom mohl chápat jako slušné chování či morální pravidla.
Ve vývoji umělé inteligence tedy existuje základní seznam bezpečnostních pravidel, aby se předešlo problémům při nástupu robotických zařízení. Pravidla vznikla na základně spolupráce Google, OpenAI, Stanford University a University of California. Jedná se o dlouhodobé cíle, proto jsou pravidla zveřejněná již teď, i když ještě potrvá, než se roboti dostanou třeba jako pomocníci do domácností.
Vyhnutí se vedlejším efektům: toto pravidlo říká, že umělá inteligence nesmí dosahovat svých cílů tak, že přitom poškodí prostředí. Například úklidový robot nesmí shodit vázu, aby si ulehčil práci s utíráním prachu.
Vyhnutí se pomyšlení na systém odměn: pokud robot chápe práci jako hru, tedy dostane odměnu, pokud něco udělá, mohl by podvádět. V případě uklízejícího robota by se mohlo jednat třeba o zametení nepořádku pod neprůhledný materiál.
Škálovatelný dozor: jedná se o to, že robot musí sám vyhodnocovat, zdali se drží pokynů. Někdy totiž není možné stále kontrolovat robota, že dělá přesně to, co dělat má. Například pokud dostane odezvu (radu) od člověka, musí ji využít efektivně, a ne se stále ptát, zda pracuje dobře.
Bezpečné zkoušení nových věcí: roboti by měli být aspoň trošku zvídaví, ale neměli by sebe či někoho jiného vystavit nebezpečí. Například by bylo vítané, kdyby se uklízecí roboti snažili přijít na nejlepší způsob, jak použít mop, ale neměli by experimentovat se strkáním mokrého mopu do elektrické zásuvky.
Změna prostoru: roboti by měli rozpoznat, v jakém prostředí se nachází a přizpůsobit tomu chování. Musí se chovat jinak při testech v továrně, v domácnosti nebo třeba v kanceláři.
Pravidla jsou částečně určena i pro lepší přizpůsobení robotů ve společnosti. Chtějí se vyvarovat hlavně toho, že umělá inteligence si začne hledat vlastní cesty, jak myslet a jak se kontrolovat. Myslíte si, že tato pravidla pomohou začlenit roboty do běžné společnosti?
Zdroj: PhoneArena
Ve vývoji umělé inteligence tedy existuje základní seznam bezpečnostních pravidel, aby se předešlo problémům při nástupu robotických zařízení. Pravidla vznikla na základně spolupráce Google, OpenAI, Stanford University a University of California. Jedná se o dlouhodobé cíle, proto jsou pravidla zveřejněná již teď, i když ještě potrvá, než se roboti dostanou třeba jako pomocníci do domácností.
Vyhnutí se vedlejším efektům: toto pravidlo říká, že umělá inteligence nesmí dosahovat svých cílů tak, že přitom poškodí prostředí. Například úklidový robot nesmí shodit vázu, aby si ulehčil práci s utíráním prachu.
Vyhnutí se pomyšlení na systém odměn: pokud robot chápe práci jako hru, tedy dostane odměnu, pokud něco udělá, mohl by podvádět. V případě uklízejícího robota by se mohlo jednat třeba o zametení nepořádku pod neprůhledný materiál.
Škálovatelný dozor: jedná se o to, že robot musí sám vyhodnocovat, zdali se drží pokynů. Někdy totiž není možné stále kontrolovat robota, že dělá přesně to, co dělat má. Například pokud dostane odezvu (radu) od člověka, musí ji využít efektivně, a ne se stále ptát, zda pracuje dobře.
Bezpečné zkoušení nových věcí: roboti by měli být aspoň trošku zvídaví, ale neměli by sebe či někoho jiného vystavit nebezpečí. Například by bylo vítané, kdyby se uklízecí roboti snažili přijít na nejlepší způsob, jak použít mop, ale neměli by experimentovat se strkáním mokrého mopu do elektrické zásuvky.
Změna prostoru: roboti by měli rozpoznat, v jakém prostředí se nachází a přizpůsobit tomu chování. Musí se chovat jinak při testech v továrně, v domácnosti nebo třeba v kanceláři.
Pravidla jsou částečně určena i pro lepší přizpůsobení robotů ve společnosti. Chtějí se vyvarovat hlavně toho, že umělá inteligence si začne hledat vlastní cesty, jak myslet a jak se kontrolovat. Myslíte si, že tato pravidla pomohou začlenit roboty do běžné společnosti?
Zdroj: PhoneArena