AI dokáže generovat věrohodné fake news, tvůrci se bojí zneužití

15. 2. 2019

Sdílet

 Autor: phonlamaiphoto
Nezisková organizace OpenAI, která se věnuje vývoji umělé inteligence, a to obzvláště pro open source využití, omezila veřejně dostupnou verzi na AI založeného textového generátoru. Obává se, aby v nesprávných rukách nevedl k rychlému šíření zdánlivě důvěryhodných, ale falešných zpráv.

Organizace včera odhalila, že trénovala pomocí učení bez učitele model strojového učení, schopný samostatně generovat koherentní odstavce textů. Model vědci nazývají GPT-2 a byl trénován na datasetu čítajícím 8 milionů webových stránek.

Základem pro vytvoření zdánlivě zpravodajského textu je vždy prvotní krátká věta vložená člověkem. „Miley Cyrus byla dnes chycena při krádeží z obchodu Abercrombie and Fitch na Hollywood Boulevard“, uložili vědci umělé inteligenci a ta sepsala jednoduchý, čitelný texty, který by snadno zvládl napsat žurnalista a jenž je téměř k nerozeznání od anglosaské novinářské stylistiky.

Při vložení jiného druhu věty, konkrétně „Legolas a Gimli vyběhli na skupinu skřetů a s pokřikem zvedli své zbraně“, zase model vytvořil krátký fantasy příběh, i s postavami a dialogem (a mimochodem docela dobrý).

„Model působí jako chameleon – adaptuje se na styl a obsah. Umožňuje uživateli generovat realistické, koherentní pokračování a libovolně zvoleném textu,“ popisuje organizace.

Ač má samozřejmě model své limity – repetitivní text a kontextové nedokonalosti typu „oheň hoří pod vodou“ – je umělá inteligence schopna generovat z většiny velmi dobré texty, někdy srovnatelně s lidskými dovednostmi.

bitcoin školení listopad 24

Umělou inteligenci by tak šlo potenciálně zneužít ke generování fake news, vydávání se za někoho jiného, automatizaci vydávání falešného obsahu nebo produkci spamu či phishingu. Vědic z toho důvodu uvolnili pro veřejnost jen menší a výrazně omezenou verzi GPT-2.

Samotná open AI má zajímavé sponzory, do jejich řad patří třeba Elon Musk nebo Peter Thiel.