Lidé učí počítače myslet - a ne vždy dobře

30. 3. 2021

Sdílet

 Autor: Depositphotos - Photocreo
Miliony lidí svým chováním ovlivňují, jak se AI ve výsledku chová. Zda je to dobře, to těžko říct, ale je to pohonem digitální ekonomiky.

Nemusí to být zcela zřejmý fakt, umělá inteligence a strojové učení však mohou fungovat jen díky tvrdé práci vykonávané lidmi. Přes všechnu automatizaci zůstává práce lidí stěžejní. A nemáme teď na mysli počítačové inženýry a vědce, ale zástupy brigádníků a špatně placených zaměstnanců, jejichž hlavní činností je data kategorizovat, skládat a shlukovat, což je činnost pro učení umělé inteligence naprosto stěžejní - bohužel.

V poslední době však vyvstává otázka zacházení s těmito anonymními digitálními dělníky i to, zda ve výsledku nevede snaha "přemýšlet jako stroj" ke špatnému chování AI, která zůstává více strojem, a "převýchově" lidí, které se strojům přibližují. Nad rolí těchto pracovníků v utváření AI systémů, které se stávají nedílnou součástí našich životů, se zamýšlí reportérka BBC Jane Wakefieldová.

Jednou z největších crowdsourcingových platforem pro takové úkony je Amazon Mechanical Turk spadající pod online prodejního giganta. Z dalších můžeme jmenovat Samasource, CrowdFlower nebo Microworkers. Všechny fungují na stejném principu – umožňují firmám na dálku najímat pracovníky k úkonům, které počítače ještě nezvládnou. Od popisování fotografií za účelem zlepšování rozpoznávacích algoritmů AI, přes pomoc s procesováním mluveného slova až třeba po moderování obsahu na sociálních sítích a podobně.

Mechanical Turk – pojmenovaná po mechanickém stroji z 18. století, který uměl hrát šachy (než se ukázalo, že stroj ovládá člověk) – se prezentuje jako crowdsourcingové tržiště a „skvělý způsob, jak minimalizovat náklady a čas pro každou z fází vývoje strojového učení“. Dle Amazonu většina pracovníků, kteří platformu využívají, ji vnímají jako možnost přivýdělku či brigády.

Wakefieldová však v rámci své reportáže vyzpovídala jistou Sherry Stanleyovou ze Západní Virginie, která na platformě vydělává už šest let prakticky na plný úvazek.

„Je to jedna z mála pracovních příležitostí, které u nás mám. Většina z nás je na svou práci hrdá, ale jsme ponecháni na pospas Amazonu, který coby jedna z největších společností na světě spoléhá na to, že lidi jako já budou mlčet o podmínkách naší práce,“ vypověděla s obavami Stanleyová, dle které se práce různí časovou náročností i výší odměny. Jako problematické však vnímá hlavně odmítání – a následné nezaplacení – práce bez udání důvodu, omezování pracovních účtů či někdy extrémně nízké hodnocení zakázek.

„Pracovníci na Turku zasluhují větší transparentnost. Proč je naše práce odmítána, k čemu slouží, proč jsou naše účty zamrazovány, co se děje s našimi daty, jestliže za ně nedostaneme zaplaceno, a taky pro koho vůbec pracujeme,“ vyjmenovává Stanleyová.

Jistých práv se mohou pracovníci na Turku domoct prostřednictvím Turkopticonu, připomínajícím odborovou organizaci. Sama Stanleyová v rámci ní usiluje o zřízení pracovnické komunity, v níž by mohli sdílet své zkušenosti. Amazon na toto téma pro BBC uvedl, že už předloni v rámci platformy zavedl hodnotící systém, skrz který si mohou zájemci o zakázky ověřit spolehlivost zadavatele. Odmítání odvedených úkolů se dle společnosti pohybuje na nízké úrovni, pod hranicí jednoho procenta.

Saiph Savageová z univerzity v Západní Virginii však upozorňuje na jeden z problémů takové práce, a to její finanční ohodnocení:

„Zadavatelé někdy nabízejí odměnu ve výši jen dvou dolarů za hodinu, přičemž z inzerátu nemusí být zřejmé, kolik času práce zabere. Navíc jsou v mnohem silnější pozici než pracovníci a jestliže odvedenou zakázku náhle odmítnou, vykonavatelé nemají páky, jak s tím něco dělat.“ Zároveň dle ní na podobných platformách nebývá jasná identita zájemců o práci a jejich motivace, riziková může být jejich předpojatost. Savageová odkazuje na studii, jejíž autoři odhalili „algoritmus“, který na YouTube blokoval obsah s homosexuální tematikou.

„Jak se ukázalo, nebyl to algoritmus, který byl chybný, ale lidé, kteří jej pomáhali utvářet, a kteří pocházeli z prostředí, v němž byla homosexualita zapovězená.“

Tématem předpojatosti umělé inteligence se zabývá rovněž Alexandrine Royerová z montrealského Institutu etiky AI, podle které je třeba pracovníky, z jejichž práce umělá inteligence těží, regulovat.

ICTS24

„Rozhodnutí činěná datovými pracovníky v Africe nebo kdekoliv jinde, kteří jsou zodpovědní za kategorizování a moderování obsahu na globálních platformách, formují algoritmy, které dennodenně ovlivňují uživatele z celého světa,“ říká Royerová. „Tihle neviditelní pracanti fungují ve stínech digitální ekonomiky, jakožto arbitři online obsahu však mají obrovskou zodpovědnost.“

Od toho, co nám nabízí YouTube, přes tweety až po výsledky vyhledávání na Googlu – to vše ovlivňuje práce právě takových lidí. „Je načase, abychom jejich práci dali rámec a taky ji náležitě odměnili.“