Vývoj je dle nich třeba omezit, aby se předešlo třetí revoluci ve válečnictví (po střelném prachu a nukleárních zbraních), jelikož autonomní smrtící systémy prý představují Pandořinu skříňku, jejíž otevření je jen otázkou času. Experti chtějí dosáhnout zákazu používání umělé inteligence v souvislosti s ovládáním zbraní.
„Pokud by byly takové systémy vyvinuty, umožnily by ozbrojený konflikt dosud nevídaných rozměrů a probíhající rychleji, než si lidé dokážou představit,“ píše se v dopise. „Může se jednat o zbraně teroru, zbraně, které tyrani a teroristé užijí proti nevinným lidem, a zbraně zneužité k chování nežádoucím způsobem.“
Podle odborníků je přitom třeba jednat hned, jelikož času není nazbyt.
„Jakmile bude tato Pandořina skříňka otevřena, bude těžké ji zavřít.“
Volají po tom, aby technologie, které označují jako „morálně špatné“, byly přidány na seznam zbraní zakázaných Úmluvou o některých konvenčních zbraních, omezující zbraně které „způsobují nepřiměřené utrpení nebo mají nerozlišující účinky“ (např. nášlapné miny). V rámci OSN se měla dopisem tento týden zabývat skupina zaměřená na autonomní zbraně, její setkání však bylo odloženo na listopad.
Ani na půdě Spojených národů však nejde o nové téma, s podobným apelem už před dvěma lety přišla skupina více než tisícovky odborníků, mezi kterými ani tehdy nechyběl Musk, ale též třeba Stephen Hawking nebo spoluzakladatel Applu Steve Wozniak.
A co si vlastně pod pojmem „smrtící robot“ představit? Jde o plně autonomní zbraň, která může vybírat cíle a útočit na ně bez toho, aby byla vedena lidskou rukou. V současnosti sice takové stroje neexistují, technologický vývoj je však realitě přibližuje stále víc.
Jejich zastánci jsou toho názoru, že současné válečné zákony jsou dostatečné, aby případné problémy se „smrtícími roboty“ postihovaly, a jestliže by tomu tak nebylo, stačilo by prý moratorium – dočasné zastavení vývoje – nikoliv definitivní zákaz. Podle oponentů jsou však takové stroje hrozbou pro lidstvo a jakákoliv autonomní „smrtící funkce“ by měla být zakázána.