reklama
Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně

Pentagon vyvíjí AI pro hledání tajných raket s jadernou náloží

6.6.2018, Jan Vítek, aktualita
Pentagon vyvíjí AI pro hledání tajných raket s jadernou náloží
Americký Pentagon pracuje na vývoji umělé inteligence, která by dokázala vyhledávat utajené rakety vybavené jadernou náloží. Cílem je jejich odhalení ještě před případným vypuštěním, čili jde o snahu předejít tomu, aby bylo nutné je zneškodnit až za letu.
S Pentagonem ještě donedávna spolupracovala společnost Google, a to na projektu Maven, ovšem tuto spolupráci se nyní rozhodla ukončit, a to v reakci na silný nátlak vlastních zaměstnanců, z nichž se někteří kvůli tomu rozhodli z firmy odejít. Nicméně projekt Pentagonu na vývoji AI odhalující rakety s jadernými nádržemi by s Googlem neměl mít nic společného a ostatně ten by asi zaměstnanci mohli vzít na milost, neboť jde veskrze o snahu zajistit si obranu před katastrofou. I když to je otázka. 
 
 
Jak už bylo řečeno, takové rakety lze ničit až za jejich letu třeba pomocí deštníku raketové obrany, anebo ještě na zemi, což však znamená spuštění preemptivního útoku. Ta první možnost znamená složité zneškodňování vysokou rychlostí letícího cíle, které těžko bude stoprocentní, zatímco ta druhá zase vyžaduje rozhodnout se útoku, který nemusel být ještě ani vyprovokován, což by v některých případech mohlo katastrofu vyvolat, než aby se jí zabránilo.
 
 
 
Ovšem jak může umělá inteligence posloužit k odhalování takových raket, zvláště když ty nemusí představovat pevné, ale mobilní odpaliště? Takové rakety mohou být z mobilních stanovišť rychle připraveny pro start, a tak je velice složité je odhalit pomocí satelitů. Právě zde může umělá inteligence velice dobře posloužit, pokud bude schopna odhalit podezřelou aktivitu na satelitních snímcích ihned poté, co dorazí. Může se tak stát důležitou součástí systému včasného varování. Jde o program, který má jisté podobné konceptuální prvky jako projekt Maven, ale jinak je naprosto samostatný. 
 
Umělá inteligence už dlouho vzbuzuje obavy z toho, že by mohla sama rozhodovat o důležitých věcech, takže obavy vyvolávají třeba robotičtí policisté, kteří by byli v důsledku nadřazení lidem. Nejde (zatím) o to, že by taková AI mohla nabýt vědomí a dovést svět k jaderné válce, ale o to, že by se mohla prostě splést a reagovat nepřiměřeně situaci. To tedy pokud k tomu vůbec bude mít možnost., takže generál John Hyten, vrchní velitel amerických nukleárních sil, uvedl, že bude nutné zajistit, aby důležitá rozhodnutí stále dělali lidé, ne AI. 
 
guacamole, nebo mourek? záleží na úhlu pohledu
 
Dá se tak uvažovat o tom, že AI ve vyvíjeném systému bude pouze upozorňovat na podezřelou aktivitu a pak už bude záležet jen na lidech, zda bude či nebude nutné reagovat. Ostatně strojové učení v dnešní AI není všemocné a dá se oblafnout, jak ukázal nedávný projekt na MIT. Ten ukázal, že AI se dá přesvědčit k tomu, aby identifikovala želvu jako pušku
 


reklama