AI dokáže generovat věrohodné fake news, tvůrci se bojí zneužití

15. 2. 2019

Sdílet

 Autor: phonlamaiphoto
Nezisková organizace OpenAI, která se věnuje vývoji umělé inteligence, a to obzvláště pro open source využití, omezila veřejně dostupnou verzi na AI založeného textového generátoru. Obává se, aby v nesprávných rukách nevedl k rychlému šíření zdánlivě důvěryhodných, ale falešných zpráv.

Organizace včera odhalila, že trénovala pomocí učení bez učitele model strojového učení, schopný samostatně generovat koherentní odstavce textů. Model vědci nazývají GPT-2 a byl trénován na datasetu čítajícím 8 milionů webových stránek.

Základem pro vytvoření zdánlivě zpravodajského textu je vždy prvotní krátká věta vložená člověkem. „Miley Cyrus byla dnes chycena při krádeží z obchodu Abercrombie and Fitch na Hollywood Boulevard“, uložili vědci umělé inteligenci a ta sepsala jednoduchý, čitelný texty, který by snadno zvládl napsat žurnalista a jenž je téměř k nerozeznání od anglosaské novinářské stylistiky.

Při vložení jiného druhu věty, konkrétně „Legolas a Gimli vyběhli na skupinu skřetů a s pokřikem zvedli své zbraně“, zase model vytvořil krátký fantasy příběh, i s postavami a dialogem (a mimochodem docela dobrý).

„Model působí jako chameleon – adaptuje se na styl a obsah. Umožňuje uživateli generovat realistické, koherentní pokračování a libovolně zvoleném textu,“ popisuje organizace.

Ač má samozřejmě model své limity – repetitivní text a kontextové nedokonalosti typu „oheň hoří pod vodou“ – je umělá inteligence schopna generovat z většiny velmi dobré texty, někdy srovnatelně s lidskými dovednostmi.

ICTS24

Umělou inteligenci by tak šlo potenciálně zneužít ke generování fake news, vydávání se za někoho jiného, automatizaci vydávání falešného obsahu nebo produkci spamu či phishingu. Vědic z toho důvodu uvolnili pro veřejnost jen menší a výrazně omezenou verzi GPT-2.

Samotná open AI má zajímavé sponzory, do jejich řad patří třeba Elon Musk nebo Peter Thiel.