Umělá inteligence v kybernetické válce

25. 5. 2020

Sdílet

 Autor: Fotolia @Tatiana Shepeleva
Hodně z toho, co slyšíme o umělé inteligenci a strojovém učení v bezpečnostních produktech, je prosycené marketingem, takže bývá těžké zjistit, co tyto nástroje skutečně dělají. Přinášíme jasný pohled na současný stav umělé inteligence a strojového učení v oblasti zabezpečení.

Začněme vysvětlením nejčastějšího omylu. V podnikovém bezpečnostním softwaru je velmi málo umělé inteligence (AI, Artificial Intelligence), pokud tam tedy vůbec nějaká je. Skutečnost, že se tento pojem velmi často objevuje, souvisí převážně s marketingem a velmi málo s technologií. Čistá umělá inteligence se týká reprodukce rozpoznávacích schopností.

To znamená, že strojové učení (ML, Machine Learning), jedna z mnoha podskupin umělé inteligence, je součástí některých softwarových bezpečnostních produktů. Ale i pojem strojové učení se může používat příliš optimisticky. Jeho užití v bezpečnostním softwaru dnes sdílí více společného spíše s „expertními systémy“ založenými na pravidlech z 80. a 90. let než se skutečnou AI.

Pokud jste někdy použili Bayesovu past na spam a vytrénovali ji tisíci známých spamových e-mailů a tisíci známých dobrých e-mailů,  víte, jak strojové učení funguje. Ve většině případů nedokáže učit samo sebe a pro aktualizaci vyžaduje lidskou intervenci včetně programování.

V oblasti zabezpečení existuje tolik proměnných a tolik datových bodů, že udržení tréninku v aktuální podobě a následně s efektivním fungováním může být problém.

Strojové učení však může být velmi efektivní, pokud se vytrénuje na velkém objemu dat z prostředí, v němž jej budou používat lidé, kteří vědí, co dělají. Přestože jsou komplexní systémy možné, strojové učení funguje lépe na cílenějších souborech úloh než při širokém zaměření.

Jedním z nejpřínosnějších aspektů strojového učení je detekce anomálií, což je základ pro analýzu chování uživatelů a entit (UEBA, User and Entity Behavior Analytics), uvádí Chris Kissel, ředitel výzkumu pro globální bezpečnostní produkty v IDC.

„Stručná definice činnosti UEBA je určování, zda aktivita pocházející z daného zařízení nebo jím přijatá je anomální.“ UEBA se přirozeně hodí pro mnoho hlavních obranných aktivit z oblasti kybernetické bezpečnosti.

Když se systém strojového učení důkladně vytrénoval, došlo ve většině případů k definování známých událostí. To umožňuje, aby se váš systém threat intelligence či bezpečnostní monitorovací systém zaměřil na identifikaci anomálií.

Co se ale stane, když je systém trénovaný dodavatelem výhradně pomocí jeho obecných dat? Nebo je-li trénovaný s nedostatečným objemem událostí? Nebo existuje příliš mnoho mimořádných hodnot, které postrádají identifikaci a nakonec se stávají součástí rostoucího „neužitečného šumu pozadí“?

Mohlo by se vám stát, že výsledkem bude noční můra podnikového softwaru pro detekci hrozeb: nekonečná záplava falešně pozitivních případů. Pokud netrénujete svůj systém strojového učení průběžně, nezískáte z něj skutečnou výhodu, kterou může ML nabídnout. Postupem času bude navíc vašemu systému klesat efektivita.

Poznámka: strojové učení může zefektivnit procesy a radit personálu provozního centra zabezpečení (SOC – Security Operations Center). Ukazuje příslib toho, co by mohly časem nabídnout výkonnější systémy založené na umělé inteligenci.

 

Současný stav

Zde je devět hlavních typů použití strojového učení pro podnikovou bezpečnost:  

  1. Detekce a pomoc při maření  počítačových útoků.Nezavře to dveře před začátkem útoku, alespoň prozatím ne, ale strojové učení může najít příznaky rychleji než člověk a pak navrhnout možná opatření.

„Používáme strojové učení k detekci stupně útoku pro neznámé útoky DDoS,“ uvádí Pascal Geenens, bezpečnostní výzkumník společnosti Radware. „Strojové učení také charakterizuje provoz útoku a automaticky generuje signatury pro jeho blokování.“

  1. Threat intelligence -- zpravodajství o hrozbách. Strojové učení vyniká při studiu velkého množství dat a kategorizaci chování, které nachází. Když zaznamená něco mimořádného, může varovat lidského analytika.

Strojové učení je příslovečný kladkostroj, který znásobí síly a nabízí zpracování velkých objemů dat mnohem rychlejším způsobem, než by to mohli zvládnout lidé. Přetížení je taktika, kterou běžně využívají zločinci.

Může být jednodušší to říci než udělat, ale systémy detekce hrozeb jsou mnohem efektivnější, když se jejich práce blíží reálnému času.

  1. Identifikace, prioritizace a pomoc při odstraňování existujících zranitelností by měly být ve všech podnicích pravidelnou činností a se solidním systémem strojového učení, který by měl tuto činnost dělat každý den, se největší problém podnikového zabezpečení – neopravené zranitelnosti – díky tomu může stát méně hrozivým.
  2. Bezpečnostní monitorování je proces udržování přehledu o provozu v síti, vnitřním a vnějším chování, přístupu k datům a řadě dalších funkcí a činností.

Při správném naprogramování dokáže strojové učení zpracovat velké objemy dat a najít v nich anomálie, takže může být nejlepší technologií pro kontrolu souborů protokolů a chybových zpráv od řady produktů.

  1. Detekce malwaru včetně ransomwarových phishingových útoků. Rodiny ransomwaru rostou jako houby po dešti. Strojové učení může být jediným dostupným nástrojem, který nespoléhá při detekci na signatury schopné detekovat jen známý ransomware. Schopnost nacházet anomální chování je při detekci ransomwaru velmi účinná.
  2. Vyhledávání zranitelností v kódu. Jedna z manter DevSecOps zní „bezpečnost v kódu“. Je jasné, že vývojáři potřebují umět vytvářet kód s ohledem na zabezpečení, ale strojové učení může tento proces automatizovat analýzou kódu, zda neobsahuje běžné mezery a zranitelnosti, které lze zneužít. Mohl by to také být nástroj použitelný k výuce nezkušených vývojářů.
  3. Kategorizace dat. K dodržování předpisů o ochraně soukromí a  osobních údajů musíte znát vlastnosti chráněných dat. Strojové učení lze využít pro skenování nově příchozích dat a k jejich klasifikaci podle úrovní citlivosti, aby je vaše systémy mohly chránit způsobem, jakým je to potřebné.
  4. Honeypoty (nástrahy). Existuje jedna specifická oblast, kde lze v současné době využívat hluboké učení, které je o něco blíže k pravé umělé inteligenci, k automatickému zmírnění hrozeb.

„Nasazením honeypotů v podnikových sítích kolem internetu můžeme shromažďovat data, která lze označit jako škodlivá,“ prohlašuje Geenens. „Každá událost nebo přenos detekované honeypotem jsou stoprocentně škodlivé. Pokud máme dostatek honeypotů a dat, lze použít hluboké neuronové sítě k vytvoření modelu, který dokáže detekovat útoky s vysokou přesností.“

  1. Předvídání a přizpůsobení pro budoucí hrozby. Prediktivní bezpečnostní analytika je cílem více společností, když dává určitý příslib pro business intelligenci. Je ale možné využít podobnou technologii strojového učení k očekávání zranitelností a průlomů v budoucnu? To zatím ještě nevíme.

 

Zjistěte pravdu

Někteří experti jsou přesvědčeni, že v této oblasti zatím žádné produkty založené na pravé umělé inteligenci neexistují. To může být poněkud zjednodušené.

AI lze použít jako zastřešující termín, který označuje širokou řadu technologií zahrnujících i strojové učení současně s technologiemi, jež technicky skutečně nejsou umělou inteligencí. Nebo lze pojem používat v nejpřísnějším smyslu – jako funkci počítačového systému s kognitivními schopnostmi.

Niall Browne, ředitel zabezpečení a viceprezident pro důvěru a zabezpečení ve společnosti Domo, není přesvědčen o umělé inteligenci v současných bezpečnostních produktech.

„AI má obrovský potenciál a bude hrát klíčovou roli v budoucnosti bezpečnosti. Nyní však existuje jen velmi málo příkladů, kdy by se umělá inteligence úspěšně nasadila v zabezpečení podniků.“ Uznává však, že strojové učení lze pro bezpečnostní účely využívat.

Browne není sám, kdo je unaven z AI humbuku obklopujícího některé bezpečnostní produkty. Jeho názory se shodovaly s několika dalšími odborníky.

Reg Harnish, výkonný ředitel společnosti GrayCastle Security, shrnuje tuto mytologii slovy: „Mnoho dodavatelů softwaru, kteří tvrdí, že jejich produkty obsahují AI, používá hrubou výpočetní sílu pro pevně naprogramovaná pravidla namísto použití inteligence.“

Na co by se měli ředitelé zabezpečení a ředitelé zabezpečení informací ptát dodavatelů, aby se nenechali v oblasti strojového učení mást?

„Primární otázkou je: ‚Jakým způsobem dochází k učení?‘ Potřebujete porozumět konkrétním mechanismům, které se používají při tréninku ML a AI,“ vysvětluje Tom Koulopoulos, zakladatel společnosti Delphi a poradce start-upu Wasabi zaměřeného na ukládání dat v cloudu.

„Jaký objem dat se vyžaduje? Jak často je potřeba opakovat trénink? Jaký je mechanismus spolupráce s algoritmem a jeho hodnocení člověkem? Dokážou strojové učení nebo umělá inteligence pracovat s archivními daty, nebo může použít jen on-line data?“ dodává Koulopoulos.

Kayne McGladrey, člen IEEE a ředitel společnosti Integral Partners, radí toto: „Otestujte si bezpečnostní řešení založené na AI pomocí repliky vašeho prostředí v laboratoři. Potom uzavřete smlouvu s uznávaným externím ‚red‘ týmem, aby se opakovaně pokoušel proniknout do tohoto prostředí.“

 

Hrozby poháněné AI

I experti, kteří se velmi kriticky vyjadřují o úrovni AI vestavěné v současných platformách podnikového zabezpečení, však plně věří v budoucnost AI v oblasti bezpečnosti. Je k tomu jednoduchý důvod: kyberzločinci již strojové učení využívají.

„Je jen otázkou času, kdy se AI stane realitou ve všech odvětvích včetně počítačové kriminality,“ prohlašuje Browne. „Pokaždé, když se v oblasti zabezpečení objeví nějaká nová forma ochrany, najdou kyberzločinci nějaký způsob, jak tuto obranu obejít.

Umělá inteligence tento tanec exponenciálně urychlí. Představte si svět, kde se inteligentní zločinecké systémy snaží proniknout do bank, nemocnic a energetických společností nepřetržitě – 24 x 7 x 365. Samozřejmě že systémy AI v těchto institucích budou vykonávat stovky intuitivních aktivit za sekundu ve snaze udržet kyberzločince v bezpečné vzdálenosti.“

Někteří experti přemýšlejí, proč jsme ještě neviděli kyberzločince využívající umělou inteligenci významnějším způsobem. Jiní se domnívají, že si na to ještě tři roky až pět let počkáme.

Koulopoulos je přesvědčen, že za tři roky „uvidíme, jak se AI používá k automatizaci vysoce personalizovaných útoků na významné cílové jednotlivce s využitím kombinace behaviorálních dat a vzorů on-line interakce“.

Zamýšlí se nad phishingovými e-maily, které dostáváte dnes, ve srovnání s tím, jaké by mohly být za několik let.

„Představte si phishingové útoky, které by odkazovaly na vaše skutečné interakce s někým, koho znáte,“ dodává Koulopoulos a nabízí následující příklad zprávy phishingového útoku využívajícího AI: „Ahoj, bylo skvělé vidět se s tebou včera v kavárně! Vím, že přemýšlíš o další cestě ke Středozemnímu moři od svého loňského výletu na Krétu. Možná by tě mohla zajímat následující nabídka, na kterou jsem narazil... “

Zní vám to strašidelně? Evidentně to bude náročné. Koulopoulos varoval, že „přestože stěží škrábne povrch samotných kybernetických hrozeb, bude AI schopná těžit z digitálních vzorců našeho chování a dat o interakcích, která generujeme prostřednictvím rychle rostoucího počtu aplikací a zařízení připojených k internetu věcí (IoT)“.

 

Automatizace útoků

Ganesh Krishnan, spoluzakladatel a technologický ředitel společnosti Avid Secure, který dříve pracoval na vysokých manažerských bezpečnostních pozicích ve společnostech jako Yahoo a Atlassian, nabízí jiný příklad.

„Chytřejší útok by zahrnoval instalaci malwaru, který se učí z prostředí, v němž běží, zjišťuje, jak se pohybovat bokem, vyhýbá se detekci a krade data způsobem, jaký je obtížné odlišit od běžného chování,“ takže přelstí nástroje pro detekci a monitoring.

Umesh Yerram, ředitel ochrany dat ve farmaceutické společnosti AmerisourceBergen, souhlasí. „Jakmile budou technologie AI široce dostupné, budou kyberzločinci schopni zahájit novou vlnu sofistikovaných útoků, které mohou uniknout většině tradičních bezpečnostních nástrojů pro detekci a monitoring.“

A potom je zde otázka měřítka. Současná komplexní narušení bezpečnosti nejsou typicky automatizovaná a útočníci musejí vynaložit značné úsilí a důmysl při průniku a kradení dat. Ale lidé potřebují jíst a spát. Nemohou pracovat nepřetržitě.

„V důsledku AI uvidíme inteligentní útoky mezi stroji navzájem, které budou probíhat 24 x 7 x 365,“ varuje Niall Browne ze společnosti Domo.

„Systémy AI kyberzločinců udělají miliony intuitivních rozhodnutí za sekundu o nejlepších způsobech proniknutí a kompromitace dat.“ Browne dodává, že nejděsivější je schopnost nezákonných systémů AI v budoucnosti „útočit nejen na jednu společnost, ale na stovky a tisíce organizací současně. Je to děsivá krajina“.

Většina expertů se ale nedomnívá, že by se cíle nástupem AI změnily. Browne však předpovídá, že se zaměření kybernetických útoků přesune z „jednoduššího kradení dat a vypínání systémů na komplexnější cíle včetně manipulace“.

Jinými slovy – přesvědčit systém, osobu nebo společnost, aby jednaly určitým způsobem prostřednictvím změny dat, která používají. Browne dodává, že „bude možné využití k manipulaci s cenami akcií, k fluktuaci měn, ke změně výsledku testování jaderného reaktoru nebo k ovlivnění výsledků voleb“.

S výhledem tří let „si dokážu představit lépe organizované zločinecké organizace nebo státy využívající AI pro umělé vytváření nových útočných vektorů“, popisuje Pascal Geenens z firmy Radware.

„Měla by se začít používat celá oblast AI. Tam, kde se dříve používalo strojové učení jako primární oblast pro automatizaci útoků, budou systémy AI, jako jsou genetické algoritmy a posílené učení, používané k vytváření nových útočných vektorů a systematicky pronikat do všech druhů systémů, ať už jde o cloud, IoT nebo průmysl – IoT/SCADA, tvrdí Geenens.

Až to podle něj budou kyberzločinci používat v kombinaci s automatizací, setkáme se s plně automatizovaným ekosystémem, který bude zajišťovat prolamování a bude během času sám sebe zlepšovat, bez omezení měřítka a vytrvalosti. Bude to neustále se vyvíjející útočný systém.

Geenens se domnívá, že kyberzločinci mění role – opouštějí  skutečné útoky a stávají se z nich údržbáři a vývojáři automatizovaných hackovacích strojů s AI. Hackování budou vykonávat stroje a lidé budou zlepšovat efektivitu těchto strojů.

 

Co bude dál?

Krutá pravda je, že budoucnost nedokáže předvídat nikdo. Dvě následující perspektivy ilustrují extrémní rozsah reakcí na to, co přichází v podobě hrozeb podporovaných umělou inteligencí.

„Zastánci dobra mají více zaměstnanců, vetší výpočetní sílu, lepší porozumění sítím a hardwaru a vztahy s hostiteli cloudů a sítí pro distribuci obsahu... Ale tato hra v podobě souboje špionů se nikdy nezmění – budou se měnit jen prostředky realizace,“ uvádí Chris Kissel z IDC.

„Mnoho aspektů lidské interakce nyní spoléhá na technologie. AI bude exponenciálně inteligentnější než člověk, nikdy nespí, bude se přirozeně snažit o ochranu sama sebe a nejstrašnější ze všeho je, že nemá žádnou morálku,“ varuje Niall Browne.

Jakmile AI začne skutečně fungovat, bude mít obrovské schopnosti bez morálního kompasu. Mohla by snadno použít naši technologii proti nám, aby zlikvidovala podobu moderního života, dodává Browne.

ICTS24

 

Tento příspěvek vyšel v Security Worldu 4/2018. Časopis (starší čísla i předplatné těch nadcházejících) si můžete objednat na adrese našeho vydavatelství.