Vývojáři přišli s AI systémem schopným vytvářet fake news

Společnost OpenAI vyvinula systém schopný generování uvěřitelného textu. Hrozí však jeho zneužití.

Vývojáři přišli s AI systémem schopným vytvářet fake news


Sanfranciská společnost OpenAI vyvinula AI systém, který je na základě strojového učení schopen tvorby textů psaných zcela přirozeným jazykem. Vývojáři však vyjádřili obavu, že by mohl být zneužit k hromadné produkci přesvědčivých fake news. Takže ačkoliv systémem vytvořené texty mohou být obsahově zcela nesmyslné, po formální stránce dokážou být nerozeznatelné od textů psaných lidskou rukou.

OpenAI uvádí, že systém je schopen vytvořit článek na jakékoliv téma na základě zcela jednoduchého zadání. Jeho umělá inteligence přitom nepotřebuje být v daném tématu jakkoliv „proškolena“, texty formuje na základě dat sesbíraných z osmi milionů webových stránek, kterými se je schopna automaticky „krmit“.

Nesbírá je však nahodile, což by vedlo k objektivnějšímu obsahu, ale pouze ze stránek zveřejněných na platformě Reddit a pouze takových, které mají karmické skóre tři a vyšší, což znamená, že je minimálně tři lidé označili jako hodnotné, ať už k tomu měli důvod jakýkoliv.

Systém si článek vymyslí slovo od slova, přičemž výsledný text je často ucelený, ale jen výjimečně pravdivý - například všechny citace jsou zcela smyšlené. Věty vycházejí z informací již zveřejněných, ovšem složení článku je originální, chcete-li „autorské“. V některých případech systém vygeneruje pasáž, jejíž struktura nedává příliš smysl nebo obsahuje úsměvné nepřesnosti.

Například v demu poskytnutém zpravodajské stanici BBC systém vygeneroval zprávu o protestu organizovaném mužem jménem Paddy Power, což je název známé britské sázkové kanceláře. V jiném případě systém vygeneroval text o požáru, ke kterému došlo pod vodou.

BBC o nezávislý názor požádala několik odborníků, a jak se ukázalo, přestože společnost OpenAI podporují vizionáři jako Elon Musk či Peter Thiel, obecně v branži příliš oblíbená není. Podle některých využívá svého bohatství k vývoji řady ne zcela potřebných produktů, podle jiných její snažení často vrhá špatné světlo na akademiky.

„Je nesmírně důležité, aby vývojáři pracující s umělou inteligencí domýšleli možné důsledky svého jednání,“ uvedl profesor Benjamin Recht z univerzity v Berkeley.

OpenAI uvádí, že inkriminovanou technologií chtělo pohnout debatou, jak by podobná AI měla být využívána a kontrolována: „Máme za to, že vlády by měly zvážit iniciativu k systematičtějšímu dohledu na společenský dopad a rozšiřování AI technologií a zároveň zhodnotit progres schopností takových systémů.“

Podle Brandie Nonnecke z institutu CITRIS studující společenský dopad technologií by se diskuze měla víc soustředit na platformy jako je Facebook, na nichž by AI technologie mohly najít „úrodnou půdu“.

„Nejde o to, jestli někdo zneužije AI k výrobě přesvědčivých fake news, protože k tomu dojde. Jednotlivé platformy si však musí uvědomit, jakou roli sehrají v jejich potlačování. Doba, kdy se sociální sítě zříkaly zodpovědnosti, je pryč. Musí se zapojit a vytvořit transparentní a zodpovědné mechanismy, které rozeznají a potlačí šíření škodlivého a falešného obsahu,“ říká Nonnecke.

Úvodní foto: Fotolia @Tatiana Shepeleva










Komentáře