Mnoho lidí po celém světě se obavá situace, kdy se robot – nebo hůř, skupina robotů – obrátí proti člověku, ať už fyzickým násilím nebo jiným, méně zjevným způsobem.
Jejich otázka tedy zní: Mohou se roboti naučit hodnotám, morálce, tak, jak ji vnímáme my lidé? Neexistuje přeci pro ně žádný manuál, jak se ji naučit.
Nebo ano?
Vědci na Technologickém institutu v Georgii tvrdí, že ač neexistuje jeden jediný “návod“ k lidské rase, roboti by se mohli “učit“ skrze čtění příběhů a knih o životě v lidském společenství.
„Sesbírané příběhy z rozdílných kultur učí místní děti, jak se chovat ve společensky akceptovatelných normách, s ukázkami správného a nesprávného chování ve formě bajk, pohádek a jiné literatury,“ říká v prohlášení Mark Riedl, docent na Georgijském Institutu technologie, konkrétně školy interaktivního programování, která se specializuje právě na interakci člověka s počítači, potažmo roboty.
Je též prezidentem společnosti Entertainment Intelligence Lab. „Věříme, že porozumění lidským příběhům eliminuje u robotů možné psychoticky vypadjící tendence a posílí v nich volbu těch řešení, které neublíží člověku, a přesto jim umožní dosáhnout stanovených cílů."
Stephen Hawking minulý rok prohlásil, že budoucnost robotů může být pro nás nebezpečná, a že by tito mohli ovládnout lidstvo do sta let. Roboti budoucnosti tedy musí být vytvořeni tak, aby jejich cíle byly společné s našimi.
Kromě toho též slavný vědec varoval před pokrokem umělé inteligence, která by, dle jeho názoru, mohla přinést konec lidské rasy. V přibližně stejnou dobu, tedy v roce 2014, jeden z nejvlivnějších podnikatelů v moderních technologiích Elon Musk (mezi jeho záměry patří např. expedice na Mars) vyjádřil možné nebezpečí lidstvu z pokračování vývoje umělé inteligence.
Někteří vědci z oblasti informačních technologií a robotiky s Muskem do jisté míry souhlasili, ale s dovětkem, že taková úroveň inteligence u roboty je daleká budoucnost.
Jedním z pokusů jak předejít tomu, aby se roboti stali nebezpečím pro lidstvo, je naučit je co je dobré a co je špatné z lidského pohledu. Stejně, jako rodiče čtou svým dětem před spaním pohádky se silným hodnotovým sdělením, by vědci mohli dát robotům podobné čtení.
Riedl poznamenal, že kromě základního učení lidské morálky by se též mohli naučit, jak se adekvátně chovat v sekvenci událostí; tj. kdy se stane nějaká událost či dá robotovy nějaký úkol, a robot na to bude muset nějakým způsobem reagovat.
Příklad: Člověk řekne robotickému asistentovi, ať dojde do lékárny a přinese předepsaný lék co nejrychleji.
Umělá inteligence by mohla usoudit, že nejrychlejší cesta, jak lék dostat, je ukrást ho – vzít medicínu a běžet. Ale právě čtěním příběhů a učením se lidským zvykům a chování by si mohl uvědomit, že místo aby lékárnu vykradl, měl by počkat ve frontě, požádat o lék a pak spěchat zpátky.
Riedl dále tvrdí, že tato metoda výuky morálky by nejlépe fungovala u stroje, která má omezený účel, konkrétní smysl, ale potřebuje v zájmu dosažení svých cílů spolupracovat s lidmi. Dle Riedla jde o první krok k obecné hodnotové argumentaci u přístrojů.
„Věříme, že umělá inteligence musí mít ponětí o kultuře, ve které se nachází, aby v ní mohla správně fungovat, a bude se snažit vyhnout nesprávnému jednání,“ tvrdí. „Dát robotům schopnost číst a porozumět našim příběhům může být ta nejjednodušší cesta výuky bez nějakého specifického manuálu k člověku.“
Riedlův projekt financuje skupina DARPA (Defense Advanced Research Project Agency) a americký Úřad námořního výzkumu.