Když učení nefunguje: chyby v trénování AI modelů pro samořiditelné automobily mohou vést k silničním nehodám

27. 1. 2019

Sdílet

 Autor: © adimas - Fotolia.com
Odborníci z MIT ve spolupráci s Microsoftem vytvořili nový model, který dokáže odhalit případy, v nichž se autonomní systémy určené pro samořiditelné automobily učily z příkladů, které neodpovídají realitě, nebo které jsou pro reálný provoz nevhodné.

To by mohlo potenciálně způsobit výrazné bezpečnostní problémy. Inženýři však nyní mohou díky novému modelu tyto zranitelnosti eliminovat a systémy umělé inteligence vylepšit. Nejedná se pouze o autonomní vozy, ale také třeba o roboty.

Ve virtuálních simulacích jsou modely pohánějící samořiditelná auta trénována velmi podrobně, aby se algoritmy připravily na jakoukoliv možnou nastálou silniční situací. Někdy však auto v reálném světě udělá chybu, protože se stane situace, na kterou by auto reagovat mělo, ale neumí to.

ICTS24

Dvě studie od MIT popisují fungování modelu. AI systém jako normálně prochází simulačním tréninkem; na rozdíl od běžného postupu však živý člověk pečlivě sleduje, jaká rozhodnutí systém dělá a poskytuje mu zpětnou vazbu ve chvíli, kdy udělal, nebo se chystá udělat, jakoukoliv chybu. Výzkumníci poté tréninková data zkombinují s touto zpětnou vazbou a pomocí technik strojového učení vytvoří nový model, který ukáže situace, kde je nutné systém vylepšit.

Vědci svoji metodu potvrdili pomocí – věřte nebo ne – videoher. Jeho funkčnost se ve virtuálním prostředí potvrdila, teď je však nutné model zahrnout to tradiční trénovačích technik pro umělou inteligenci určenou pro autonomní vozidla a roboty.