Dnešní technologie umožňují zpracovávat skutečně ohromná množství dat, například můžou analyzovat rozsáhlé záznamy síťové komunikace a odhalit potenciální interní problémy či útočníky. Je trochu paradoxní, že síťová architektura, která zvládá big data, nebyla navržena s důrazem na bezpečnost. To způsobuje bolesti hlavy těm, kteří ji mají na starost. U velkých dat jde nejčastěji o Hadoop, který rozděluje terabajty dat mezi desítky až tisíce počítačů, na nichž probíhají nezávislé výpočty.
Řada bezpečnostních společností věří, že pro zabezpečení Hadoopu a jeho clusteru stačí tradiční obvodová ochrana postavená na firewallech a detekčních technikách vycházejících z analýzy paketů. Ale podle společnosti Zettaset specializující se bezpečnost velkých dat se takto velké clustery Hadoopu zabezpečit nedají. Ve své zprávě „The big data security gap: Protecting the Hadoop cluster“ uvadí, že tradiční bezpečnostní produkty jsou navrženy na ochranu jediné databáze, jejich kapacita nepostačuje na adekvátní zabezpečení distribuovaných souborových systémů na tisících počítačů. V takovém případě se stanou brzdou systému a současně nejslabším článkem řetězu, tedy místem, které v případě poruchy zastaví celý systém. To je samozřejmě extrémně nebezpečné v případě clusteru, kde jedna chyba může uživatele odříznout od petabajtů dat.
„Problémy s výkonem nejsou neobvyklé, když mluvíme o zabezpečení systémů velkých dat,“ říká Jason Escaravage, ředitel společnosti Booz Allen Hamilton. Například, pokud má společnost centrální server, kde probíhá kontrola oprávnění a každá část distribuovaného řešení musí čekat, až server zareaguje. Bezpečnost u těchto systémů je stále navrhována až v druhém sledu a není integrovanou součástí architektury.
Big data jsou novou technologií a jejich bezpečnostní stránka ještě nedosáhla zralosti. Než se bezpečnostní řešení vyrovnají s novými požadavky, budou se organizace nasazující Hadoop muset připravit na řadu zranitelných míst, která budou v jejich doposud bezpečném světě obnažena.