Přinášíme informace z budoucnosti

Vědci varují před autonomními zabijáky

25. Listopad 2017 | | Jiří Větvička

V současné době již existují technologie k vytvoření autonomních zbraní, které mohou bez kontroly detekovat a zabíjet lidské cíle.

Kampaň na zastavení smrtících robotů představila v rámci Úmluvy Organizace spojených národů o konvenčních zbraních krátký snímek o autonomních zbraní. Film zobrazuje budoucnost, ve které vojenská firma odhalí miniaturní dron schopný vyhledat a zabít člověka. Ten je následně zneužit a s jeho pomocí je vražděno civilní obyvatelstvo.

"Technologii zobrazenou ve filmu lze již nyní reálně vytvořit. Tohle není sci-fi. Ve skutečnosti je to snadnější než vytvořit samořídící auto, na které jsou kladeny vyšší standardy," uvedl Stuart Russell, přední vědec na umělou inteligenci na Kalifornské univerzitě v Berkeley.

Armáda umělou inteligenci nejvíce podporuje a také zavádí do praxe. Pomáhá při létání, navigaci v terénu nebo při hlídkování pod mořem. Algoritmy pro rozpoznávání obrazu dokážou vyhledávat cíle mnohem lépe než lidé. Automatizovaná hlídka, která střeží hranici mezi Jižní a Severní Koreou, dokáže zaměřit a sledovat cíl až do vzdálenosti 4 kilometrů.

Zatímco vojenské drony musí pro útok na cíl získat povolení od lidské obsluhy, autonomní zbraně opatřené výbušninami a vylepšené systémem pro rozpoznávání cílů, by mohly lokalizovat a zlikvidovat cíl bez lidské kontroly. Odpůrci se domnívají, že rozhodnutí stroje nad ukončením života překračuje jasnou morální hranici.

"Pokračovat ve vývoji letálních autonomních zbraní by drasticky omezilo mezinárodní, národní, lokální a osobní bezpečnost," řekl Russell. Vědci při tom použili podobné argumenty, které vedly v minulosti k Úmluvě o biologických zbraních. Vzhledem k tomu, že zabijácká AI je relativně levná, obávají se hromadné výroby a zneužití diktátorskými režimy nebo teroristy.

Výsledkem jednání je nutnost ustanovit určité kontrolní mechanismy, jako např. zákaz spojení quadrokoptér a algoritmů pro rozpoznávání cílů. "Profesionální etické kódy by měly znemožnit vývoj strojů, které se mohou rozhodnout zabít člověka," řekl Russell. Samotný zákaz vývoje autonomních zabijáckých strojů však zatím není v plánu.

V srpnu tohoto roku více než 100 předních světových průkopníků v oblasti AI a robotiky vyzvalo OSN, aby zakázalo vývoj a použití zabijáckých robotů. Otevřený dopis podepsal např. Elon Musk nebo Mustafa Suleymanm, zakladatel umělé inteligence Deep Mind.

 

Zdroj: https://www.theguardian.com/science/2017/nov/13/ban-on-killer-robots-urg...