Umělá inteligence ve službách zločinu

19. 7. 2018

Sdílet

 Autor: Fotolia @Tatiana Shepeleva
Populární technologie strojového učení a umělé inteligence už zdaleka nejsou pouze hříčkou inovátoru a nástrojem v rukách firem a start-upů. Blíží se doba, kdy je ve velkém začnou aktivně využívat i kybernetičtí zločinci a hackeři.

Vloni se v rámci DARPA Cyber Grand Challenge utkaly automatizované systémy jeden proti druhému a pokusily se navzájem si nalézt zranitelnosti v kódu a zneužít je.

„Jde o dobrý příklad toho, jak snadno mohou stroje nalézt a využít zranitelnosti – něco, co uvidíme stále častěji a bude sofistikovanější než kdy dříve,“ popisuje David Gibson, viceprezident firmy Varonis Systems.

Jeho společnost se sice ještě nesetkala s případem, kdy by hackeři využili technologie umělé inteligence nebo strojového učení, ale nikdo si neosvojuje nové technologie právě tak rychle jako kybernetičtí kriminálníci.

„Je rozumné předpokládat, že hackeři už nyní umělou inteligenci používají pro své zlomyslné cíle,“ říká Gibson.

„Ještě nikdy nebylo pro hackery tak jednoduché získat a naučit se využívat nástroje strojového učení,“ popisuje Don Maclean, šéf kybernetické bezpečnosti ve firmě DLT Solutions. „Příslušný software je snadno dostupný za mizivou, či dokonce nulovou cenu a tutoriál nebo návod ke strojovému učení lze získat podobně jednoduše.“

Pro příklad si vezměme rozpoznávání obrazu. Dříve šlo o jeden z klíčových cílů vývoje umělé inteligence. Dnes jsou nástroje na optické rozpoznávání obrazu natolik rozšířené a běžně využívané, že už se ani nepovažují za umělou inteligenci, vysvětluje Shuman Ghosemajumder, technický ředitel v Shape Security.

„Lidé už v tom nevidí tu samou magii co dříve,“ dodává. „Jako umělou inteligenci označují to, co teprve přijde, co je v budoucnu, na rozdíl od toho, co máme v současnosti.“

Počítačové vidění je dnes tak dobré, že umožňuje samořiditelným vozidlům spolehlivě navigovat na rušné silnici. A rozpoznávání obrazu je také dostatečné dobré, aby zvládlo vyřešit různé „puzzle“ běžně předkládané uživatelům webových stránek pro potvrzení, že jsou skutečně lidé.

Vinay Shet, produktový manažer pro CAPTCHA v týmu Googlu, například v roce 2014 účastníkům Google I/O konference řekl, že silně zkreslenou a pokroucenou CAPTCHA vyřeší pouze 33 % lidí – oproti tomu tehdejší špičkové OCR (optické rozpoznávání znaků) systémy jsou úspěšné v 99,8 % případech.

Rozpoznávání obrazu již zločinci využívají v kombinaci s „CAPTCHA farmami“, které tento způsob zabezpečení obcházejí, říká Ghosemajumder. Oblíbený nástroj Sentry MBA jej má přímo zabudován v sobě.

Zatím však, jak vysvětluje Ghosemajumder, není známý žádný veřejně dostupný nástroj založený na strojovém učení a určený specificky k překonání jiných bezpečnostních mechanismů. Existují však nepřímé nápovědy, že se kriminálníci již do využívání umělé inteligence a strojového učení pouštějí.

Společnosti například vědí, že když přichází z jedné IP adresy nepřirozeně vysoké množství přenášených dat, existuje vysoká šance, že jde o nějakou zločinnou činnost. Hackeři místo toho využijí botnety z překonání těchto filtrů a IT týmy firem musejí hledat jemnější náznaky toho, že se schyluje k útoku.

Nelze se však pouze chovat náhodně – lidské chování samo o sobě vlastně také není náhodné, popisuje dále Ghosemajumder. Strojové učení je dobré na zjištění nenápadných opakujících se vzorců ve velkém množství dat – a to je také to, co zločinci potřebují k efektivnímu napodobení lidského chování.

 

Chytřejší e-mailové podvody

Podle zprávy McAfee z letošního roku již kybernetičtí zločinci strojové učení využívají při zacílení na oběti e-mailových podvodů, konkrétně útoků typu Business Email Compromise (BEC), které od roku 2015 strmě rostou.

„Umělá inteligence jim umožňuje zautomatizovat přizpůsobení obsahu e-mailů na jednotlivce,“ říká Steve Grobman, technický ředitel Intel Security, který zprávu uveřejnil. „Další klíčovou oblastí, kde mohou hackeři využít umělou inteligenci, je u klasifikačních problémů. Umělá inteligence je skvělá v zařazování věcí do kategorií.“

Tak například by hackeři mohli díky umělé inteligenci zautomatizovat proces vyhledávání nejpravděpodobnějších obětí. Díky umělé inteligenci by také mohli útočníci snáze setrvat v utajení v podnikových sítích a nacházet zranitelná místa.

Odhalit konkrétní případy, kde jsou umělá inteligence nebo strojové učení využívány, je však těžké. „Zločinci nejsou zrovna otevření ve vysvětlování, v čem spočívá jejich metodologie,“ podotýká Grobman.

A podle jeho informací se zatím žádné jasné důkazy, například počítače, na kterých by běžely patřičné modely strojového učení, nenalezly. „Vidíme však náznaky, že se tak děje. Existují jasné známky toho, že se hackeři začínají do těchto vod přesouvat,“ dodává Grobman.

 

Malware a falešné domény

Poskytovatelé bezpečnostních řešení v poslední době stále častěji využívají strojové učení k rozpoznávání špatného softwaru od dobrého – a stejně tak dobrých domén od těch ostatních.

Podle Evana Wrighta, hlavního datového vědce firmy Anomali, však zřejmě s využíváním strojového učení začínají i kybernetičtí zločinci, například aby rozpoznali, na jaké vzorce chování se zaměřují obranné systémy počítače.

„Otestují spoustu dobrého a špatného softwaru skrze antivirus a zaměří se na vzorce, které antivirová jádra odhalují,“ vysvětluje Wright.

Podobně bezpečnostní systémy hledají vzorce i u DGA algoritmů (algoritmy, které vytvářejí vysoké množství doménových jmen, jež slouží jako přístupové body pro servery hackera).

„Zločinci se snaží vypozorovat, co a jak bezpečnostní firmy dělají, a přizpůsobit svůj model strojového učení, tak aby k pravidlům utvářel výjimky,“ říká Wright. Opět ovšem chybějí hmatatelné důkazy.

„Viděli jsme cílené pozměnění designu DGA algoritmů pro ztížení jejich detekce,“ vysvětluje Wright, „ale to lze udělat různými způsoby. Mohlo jít o experiment. Zkusili různé cesty a toto fungovalo.“

Nebo mohli mít výjimečné štěstí (a intuici), případně si najmout lidi, kteří dříve pracovali v bezpečnostní IT firmě.

Jedním z indikátorů strojového a nikoli (chytrého) lidského útoku je velikost útoku. Příkladem jsou běžné podvody, kdy falešné „randící“ účty lákají oběti do rukou prostituce. Chytrá část není o automatizované konverzaci bota s obětí, ale způsob, kterým jsou účty a přidružené profily vytvářené.

„Stroj potřebuje vytvořit profil z velmi atraktivní fotografie na Facebooku a s neméně atraktivním zaměstnáním, jako je například letuška nebo učitelka,“ říká Omri Iluz, šéf firmy PerimeterX. Každý profil musí podle něj být unikátní, avšak lákavý.

„Víme, že nejde o úplnou automatizaci, neboť to by bylo velmi těžké,“ popisuje Iluz. „Manuální proces jsme však také z rovnice vyřadili už jen kvůli prostému objemu podvodů. A také pochybujeme, že podvodníci vypouštějí miliony profilů a pak je přirozeně vybírají, protože toho by si seznamka nebo jiná platforma všimla. Spíše půjde o velmi chytrý kus softwaru.“

 

Příprava na Turingův test

V omezené, specifické míře, jsou už nyní počítače schopné Turingův test překonat – klasický myšlenkový experiment, ve kterém lidé rozhodují, zda mluví se strojem nebo s dalším člověkem.

Nejlepší ochranou proti útokům, jak vysvětluje Grobman, ale je soustředit se na základy. „Většina společností je stále zranitelná i vůči středně velkým nebo složitým útokům. Nejdůležitější věc, kterou nyní mohou firmy udělat, je zajistit si silnou technickou infrastrukturu a pokračovat v simulacích útoků.“

bitcoin_skoleni

 

Tento příspěvek vyšel v Security Worldu 2/2017. Časopis (starší čísla i předplatné těch nadcházejících) si můžete objednat na adrese našeho vydavatelství.