Data jsou vaším největším bohatstvím. Dnešní zákony upravující jejich uchování, zabezpečení a vyhledávání obsahují tvrdé postihy za jejich případné zneužití. Nové inteligentní architektury informačních technologií – jejichž aplikace jsou často orientované na služby a na zvýšení efektivity podniku – bezpodmínečně vyžadují, aby byla data konzistentní a stále k dispozici nezávisle na tom, jaký software lidé používali v době, kdy je vytvářeli.
V tomto článku se zabýváme třemi datovými pilíři: zabezpečením, kvalitou a dostupností. Naším cílem je podpořit aktivity, jež garantují, že vašim datům se dostane té pozornosti, jaká jim náleží. Nikomu se nepovede úplně předejít škodám. Nicméně rady, které zde nabízíme, vám pomohou postoupit v tomto úsilí o krůček dál.
Jak zabezpečit data
Zákony a obava z palcových titulků v novinách vedou k tomu, že pozornost věnujeme spíše datům než sítím a zabezpečení. Gary Min působil ve společnosti DuPont jako vzor špičkového zaměstnance. Pracoval jako chemik ve výzkumném oddělení v Circleville v americkém Ohiu; byl to naturalizovaný americký občan s doktorátem z univerzity v Pennsylvánii, pro DuPont pracoval již deset let a díky svému zaměstnavateli získal na Státní univerzitě v Ohiu dokonce akademický titul v ekonomii. Stoupal uvnitř společnosti po příčkách kariérního žebříčku a přebíral čím dál tím větší díl odpovědnosti za výzkumné a vývojové projekty, realizované firemním oddělením elektronických technologií. Specializoval se na produkci vysoce citlivých filmů, které se kromě jiného využívají i ve vozítku NASA, jež jezdí na Marsu.
Ale vnější fasáda tohoto všemi uznávaného odborníka získala první trhliny. Jednoho dne svému zaměstnavateli oznámil, že chce rozvázat pracovní poměr. Občanskoprávní žaloba podaná společností DuPont na Garyho Mina ukazuje, jak se následujícího dne ve firmě přišlo na to, že Min intenzivně využíval firemní knihovnu elektronických dokumentů: mezi květnem a prosincem 2005 nahlédl bezmála do dvaceti tří tisíc dokumentů, z toho jen v posledních dvou týdnech do 7 300. Varovným signálem bylo to, že se tento zaměstnanec nedržel své pracovní náplně a probíral se citlivými záznamy týkajícími se Declaru – polymeru vyvinutého DuPontem, jenž přímo konkuroval produktu PEEK vyráběnému Minovým příštím zaměstnavatelem, firmou Victrex.
Vzhledem k tomu, že Min naznačil, že přechází do šanghajské pobočky Victrexu, obrátil se DuPont na právníky a občanskoprávní soud s důvodnou obavou, aby jeho bývalý zaměstnanec neunikl před spravedlností a nepředal cenný poklad v podobě různých obchodních tajemství Victrexu, popřípadě dalším čínským společnostem.
DuPont není zdaleka jediný případ. Celkový obrázek Minovy kauzy – jeho čínská státní příslušnost, osobní kontakty se společnostmi působícími v Číně a obrovský rozsah připravované krádeže duševního vlastnictví DuPontu – to vše odpovídá obrazu, který podává FBI a o němž hovoří jako o epidemii státem podporované hospodářské špionáže. Podle jednoho odhadu existuje ve Spojených státech na 3 000 předních firem, jejichž jediným cílem je vykrádat utajované informace a získávat technologie pro prudce rostoucí čínskou ekonomiku.
Vítejte v novém světě podnikové bezpečnosti dnešních dnů! Je to svět, v němž nám včerejší problémy – hlasité a přihlouplé internetové viry nebo červi jako MSBlaster, Sobig a SQL Slammer – připadají jako triviální věc. Na jejich místo totiž nastupují insideři, vlastní důvěryhodní zaměstnanci, kteří používají trojské koně a dálkově ovládané rootkity a kteří mohou léta unikat pozornosti a přitom z firmy čerpat velmi citlivé informace. Je to svět, v němž se někdo vloupe do firemní sítě proto, aby si připravil vhodné podmínky pro pozdější odcizení konkrétních dat, a ne jako tomu bylo dřív, kdy se škůdce spokojil tím, že poškodil data jen na povrchu. Tím spíše musejí všechny společnosti dbát na to, aby monitorovaly a zabezpečovaly svá data a předcházeli tím tomu, aby se data dostala do nepovolaných rukou.
Vyšší hodnota, volnější tok
Problém je v tom, že se mění hodnota dat. Data mají dnes vyšší cenu než dříve a člověk si s tímto faktem neví rady. A k tomu ještě přistupuje to, že se důležitá data a téměř veškeré duševní vlastnictví čím dál tím více digitalizují a že se korporátní sítě v rostoucí míře propojují přímo mezi sebou i prostřednictvím internetu – to všechno nám brání včas odhalit, že nám kdosi vykrádá data nebo že se děje cosi podezřelého.
Bezpečnostní experti si uvědomují, že zabránit únikům dat a hrozbám pocházejícím od vlastních zaměstnanců představuje o třídu náročnější úkol než blokovat malware. A zatímco si podniky stále více tento problém uvědomují, jen málokdo zavádí konkrétní opatření s cílem ochránit citlivá data a duševní vlastnictví.
Zkušenosti potvrzují, že většinu firem ještě ani nenapadlo začít se touhle věcí zabývat. Takové společnosti mají po světě instalované stovky systémů, ale jen málokdo si instaluje něco, co by chránilo jeho duševní vlastnictví.
Míra rizika je stále značná. Studie ukazují, že nepovolaní zaměstnanci odzicují zhruba 2 procenta všech citlivých nebo utajených souborů a přibližně jeden ze 400 e-mailů, jež opouštějí danou společnost, obsahuje citlivé údaje – posílají se buď nepovolaným příjemcům, anebo příjemcům sice povolaným, ale v nedostatečně zabezpečené podobě, a tak mohou být data odcizena.
Společnosti zpravidla takto obnaženým datům nevěnují pozornost, neboť svou bezpečnost stále zaměřují na vlastnosti sítě a nikoli na to, co se může dít za firewallem, nebo dokonce během bezpečného spojení s obchodními partnery a dodavateli. Ochranný obal kolem dat se ztenčuje. Je čím dál tím děravější – k únikům dochází zejména při kontaktu mezi společnými podniky a spolupracujícími obchodními partnery nebo vzdálenými uživateli.
Začněte od základu a vše zamkněte
Když nastane panika, začne namáhavá práce s hledáním, kde co vlastně je. Naštěstí mají dnes společnosti k dispozici více bezpečnostních nástrojů než doposud.
Většina společností zabývajících se DLP dokáže analyzovat aktivitu na sítích a vyhledat citlivá data, například čísla úvěrových karet, data magnetického proužku nebo duševní vlastnictví na serverech s databázemi a soubory. Potom monitorují přístup uživatelů k těmto datům. Firmy jako PointSec – nyní je součástí společnosti CheckPoint – a Provilla dokáží pro-
vádět podobné audity na úrovni desktopů, přičemž monitorují jak kopírování souborů na přenosná paměťová zařízení, tak přenášení e-mailových nebo internetových souborů.
Jakmile se podaří klíčová data identifikovat, nabízejí firmy působící v oblasti DLP různé metody, jak je zabezpečit – počínaje označováním duševního vlastnictví signaturami, které spustí výstražný signál, kdykoli se dostanou mimo kontrolu společnosti, a konče blokováním USB portů, aby se zabránilo transferu dat na přenosná zařízení. Žádná metoda nedokáže dostatečně ochránit data, pokud zároveň nepřistoupíme k podstatným organizačním změnám, tvrdí experti.
Je nezbytné, aby si společnosti stanovily pro zacházení s kritickými daty vlastní bezpečnostní zásady a pak naučily zaměstnance, jaké chování je ještě přijatelné a jaké již ne. Když používáte aplikaci SAP, vstupuje se ve vaší firmě do této databáze třeba 22tisíckrát za den, a to v rámci běžného podnikového provozu. Ale když někdo používá Excel a falešné údaje k tomu, aby se dostal do SAPu, to už je třeba hodnotit jako porušení bezpečnostních zásad. Produkty používané k tradičnímu zabezpečení rozhraní a k řízení přístupových práv hrají při zabezpečení dat rovněž zásadní úlohu. Především by společnosti měly své přísné zásady a platformy pro řízení identity používat k tomu, aby byly konkrétní IP adresy vázány vždy na konkrétního uživatele. To je lepší než kalit vodu tím, že se používají sdílená přístupová práva, když se chystá důkladná kontrola. Potíž je i v tom, že u aplikací jako SAP nebo Oracle eBusiness Suite máte privilegovaná práva přístupu do databáze, a ta jsou v prostředí IT široce dostupná. Používají je vývojáři, databázoví administrátoři i lidé poskytující uživatelskou podporu.
Podniky musejí vytvořit zásady prakticky a zdola, aby se opravdu dodržovaly, což je lepší než na vrcholu řízení přijmout nerealistické bezpečnostní zásady, které se pak v praxi nedodržují. Jakmile víte, kde máte data a kam proudí, můžete začít budovat svou infrastrukturu odspoda směrem vzhůru.
Postavte bariéry
Některá bezpečnostní opatření se dají zavést jednoduše. Společnosti zajišťující ochranu dat na noteboocích a jiných mobilních zařízeních se stávají vítanými klienty obchodníků, kteří nabízejí šifrování důležitých dat – patří k nim třeba RSA nebo PGP.
Velká poptávka je dokonce i po jednouchém způsobu šifrování, který nabízí PKWare, výrobce produktu PKZip.
Jak zlepšit kvalitu dat
Zaručit vysokou kvalitu dat znamená vždy více práce, než se zdá, ale díky novým nástrojům je tento náročný úkol IT jednodušší.
Když jsem pracoval jako mladý programátor v jedné investiční bance, můj pracovní stůl byl vedle oddělení pro „integritu dat“, což bylo pár lidí, kteří měli nevděčný úkol zajišťovat, aby byly databázové záznamy o transakcích s akciemi přesné. Počítače v bance dokázaly zpracovat miliony transakcí během několika vteřin, ale špatně zadané heslo nebo určitá chybějící hodnota mohla zablokovat celou část podniku, která zpracovávala data.
Když se vše dařilo, bavili jsme se filozofickými diskusemi o tom, jakou mohou mít data „integritu“. Ne že by bance tenkrát tolik záleželo na pravdivosti databází – šlo jen o to, aby účetnictví bylo v pořádku a aby celý systém pěkně šlapal. Představa, že by nám mělo záležet na nějaké „integritě dat“, byla opravdu to poslední, oč tehdy šlo.
Dnes se na to ovšem díváme jinak. Integrita dat – tedy kvalita dat, jak se dnes častěji říká – se stala aktuální otázkou, která se řeší v nejednom oddělení IT. Výkonný ředitel, jehož kdysi dovedla nadchnout webová stránka s formulářem, který si zákazník sám může vyplnit, se dnes spíše trápí nad tím, proč je v datech takový nepořádek. Marketingové oddělení vyžaduje jasné přehledy podepřené skutečnými údaji, nikoli jen jakýsi výpis plný nepřesností.
Řada prodejců softwaru se snaží řešit problém tím, že nabízí nástroje a balíky, které s daty zacházejí jako s něčím, co je více než pouhá hromádka bitů: vytvářejí sofistikované a logické rámce pro pořádání informací a používají filozofické termíny jako „ontologie“, chtějí-li výstižně popsat číselné modely a řady v databázových polích. Ostatně celý problém s kvalitou dat existuje právě proto, že bity samy o sobě nejsou dokonalým obrazem informace, kterou přenášejí.
Čištění dat
Tyto systémy vypadají často na první pohled propracovaně a efektně, ale jsou to většinou praktické nástroje určené k tomu, aby pomáhaly řešit a odstraňovat ty nejpalčivější a nejdražší problémy. A tak přestože bývá problém formulován vzletným jazykem, jeho řešení zpravidla spočívá v jednoduchém starém dobrém pokynu typu „jestliže, pak…“. Systémy pročistí nebo odstraní data pomocí pravidel, která brání tomu, aby vznikaly falešné duplicity. Například všude tam, kde se uvádí jméno Bob, ho nahradí jménem Robert. Nebo přijdou na to, že všechna stará telefonní čísla v kalifornském Palo Alto dnes musí mít předčíslí 650.
Jedním z nejstarších a nejběžnějších způsobů použití softwaru pro kvalitu dat je čištění adres, tedy postup, kdy si firma vezme rozesílací adresář a ověří, jsou-li všechny adresy aktuální, platné a pokud možno úplné.
Třídění a pořádání informací se někdy hodně zkomplikuje. Jisté riziko vzniká tehdy, pokud data čistíte příliš důkladně – zejména když rozhodujete, které nesprávné hodnoty se mají odstranit – poněvadž přitom můžete přijít o cenné údaje.
Takové ztrátě dat lze například předejít tím, že se v každém jednotlivém případě pracovníci snaží přijít na správné řešení a raději se nespoléhají na trvalé, neměnné rozhodnutí o tom, které hodnoty jsou a které nejsou „čisté“. Někdy přijdete na něco až později, a pak musíte přehodnotit své starší rozhodnutí. Tak se například může stát, že špatná data se později jeví jako podstatná – třeba může jít o novou přezdívku zákazníka.
Záleží hlavně na obchodu
Je čím dál tím snazší získat informace, jež nám pomohou vyhodnotit, které rozhodnutí je správné a které nikoli. Je tomu tak hlavně proto, že většina nových produktů má poměrně jednoduché uživatelské rozhraní, které v podniku umožní každému, aby je sám používal, což ulehčuje práci oddělením IT.
IBM si vyvinula vlastní způsob, jak pečovat o kvalitu dat: střediska WebSphere Produkt Center a Customer Center, která mají za úkol pomáhat zákazníkům vytvořit jedinou, správ-
nou verzi pravdy tak, aby se data dala konzistentně a bez problémů používat v různých aplikacích.
Struktura a role takových nástrojů se rychle mění. Původně se nástroje navrhovaly tak, aby pracovaly v pozadí a odstraňovaly nepřesnosti monitorováním informací, uplatňováním pravidel a propojováním oddělených zdrojů. Nyní mnozí obchodníci nabízejí nové verze, které pracují v rámci architektury orientované na služby a poskytují zákazníkům bezprostřední zpětnou vazbu, což je postup, který vývojářům umožňuje odstranit nejasnosti či nepřesnosti dříve, než se objeví.
Signál upozorňující na soulad
Obchodníci vytvářejí rovněž kontrolní panely („dashboards“), které upozorňují na problémy a umožňují manažerům, aby se ponořili do datových sad a prozkoumali je. Jednou z nejrobustnějších aplikací sloužících takovým nástrojům je soulad s pravidly. Software zajišťující kvalitu dat může redukovat pracovní zátěž a zabránit firmě, aby nevědomky porušila zákon.
Tyto aplikace pocházející z různých výzkumů vědy o počítačích ukazují, že jde o oblast, která teprve začíná pronikat do hlavního proudu světa informačních technologií. Dříve hovořili manažeři IT o generování reportů, ovšem nyní zkoumají, zda by jim čištění dat nemohlo pomoci při vytváření o něco přesnějších reportů. Pracovníci sledující soulad („compliance“), kteří dříve požadovali jen prosté sledování a výstražné signály, se nyní spíše táží, jestli by jim lepší nástroje nemohly nabídnout úplnější přehled.
Budoucnost kvality
Lepší nástroje pro různé aplikace, které zajišťují kvalitu dat, již fungují. Je ovšem nutné poznamenat, že člověk nikdy nebude z této činnosti úplně vyloučen. Nejpalčivější problém pro IT představují rozporuplná nebo neúplná data putující podnikem – v různých databázích a formátech. Sladit a standardizovat všechna tato data je náročná a zdlouhavá práce. Neexistuje žádný zaručený ani jednoduchý recept, ovšem nová řešení se dostala již o kus dále po cestě k tomu, aby podniky mohly dospět k jediné verzi pravdy, aniž by z toho museli pracovníci IT zešedivět.
Jak lépe zpřístupnit data
Standardní konfigurace a procedury omezují neplánované výpadky.
Když se odborníka na dostupnost dat zeptáte, jak se jí dá nejsnáze docílit, rozhovor se rychle stočí k chybám zaviněných člověkem. Ne snad proto, že by chyby pracovníků IT byly hlavní příčinou neplánovaných výpadků; výzkumná firma Gartner identifikuje jako hlavní problém chyby softwaru, teprve na druhém místě je selhání operátora, následované výpadky hardwaru; poté přicházejí na řadu havarijní situace v budovách nebo na určitém místě; a nakonec výpadky městských sítí. Avšak jediná chyba, s níž mohou pracovníci IT opravdu něco dělat, je právě chyba zaviněná lidským faktorem.
Lidé z IT, kteří se tím zabývají, souhlasí s pořadím sestaveným firmou Gartner, ovšem někteří z nich namítají, že Gartner zřejmě podceňuje úlohu lidského faktoru. Software totiž často selhává vinou chybné konfigurace, někdy také následkem nedostatečného testování: nekompatibilitu neodhalíme mnohdy právě kvůli tomu, že se aplikace testovala na systémech konfigurovaných jinak než ty, které se pak používají ve skutečné výrobě. Nebo testování aplikace prostě neodpovídalo podmínkám reálného života.
Rovněž za mnohá selhání hardwaru může chyba lidí z IT. Jestliže se systémy nechladí správně, pokud nejsou správně rozmístěné nebo se přesně nedodržuje procedura zapínání a vypínání, životnost zařízení klesá a snadno dochází k předčasným závadám. Dokonce i u nejbanálnějšího hardwaru se vyplatí číst manuál a řídit se jím.
Ať už je příčina v tom, jak se testoval software, nebo v tom, jak se provádí údržba hardwaru, nebo koneckonců v obyčejné lidské chybě ukryté kdesi v neznámu, rozhodující otázkou zůstává to, jak ji odstranit.
Odolnost vůči chybám zaviněným člověkem
Pokud vás zrovna zaskočil nějaký výpadek zaviněný lidským kiksem, možná se zeptáte: Proč se to muselo stát zrovna mně? Za většinu chyb může nedostatečná svědomitost a opatrnost.
Nejčastější omyl lze ilustrovat na situaci, kdy se někdo chytí za hlavu a zvolá: Probůh, někdo rekonfiguroval LUN (logical unit number), číslo, které ve skutečnosti bylo výrobním LUN, ale ten člověk si zřejmě myslel, že je to něco jiného.
Možná považujete lidskou chybu za něco, co se může stát každému z nás, ale v lépe řízených podnicích k chybám tohoto typu prostě nedochází. Časem přijdete na to, že se do systému dá vložit tolik různých omezení a zákazů, že lidé už chyby dělat nebudou. Takové chyby se ve vyspělých organizacích opravdu nestávají, protože v nich působí spousta různých kontrolních pák a omezení.
Zvolíte-li si renomovaný standard jako např. ITIL, pomůže vám to v tom, že nově přijatí zaměstnanci se rychleji zapracují. Ovšem mnohá úspěšná datová centra zavedla podobně přísnou praxi dávno předtím, než se ITIL stal módní záležitostí. Klíčem k úspěchu je mít přísné vnitřní standardy, pečlivě vedenou dokumentaci a také to, aby si standardy vštípil do hlavy úplně každý, kdo v dané organizaci pracuje. A tyto standardy by měly zahrnovat všechno, až po jednoduché úkony jako konfigurování přepínače nebo konvence pojmenování používané pro vaše pásmové sady („zone sets“).
Nedostatečná konzistence v dokumentaci u takové jednoduché věci může vypadat jako maličkost, ale může vás srazit na kolena nebo vám přichystá pořádné trápení, když zkouší-
te vyřešit něco složitějšího ve dvě hodiny v noci. Všechno koneckonců závisí na zodpovědnosti.
Vyladění procesu
Podle Toma Ferrise, manažera severů v jisté mezinárodní finanční instituci, která si nepřeje být jmenována, závisí úspěch iniciativy směřující k vysoké dostupnosti (a prosazované jeho společností) nejen na aplikaci standardů a na kontrole, ale i na tradiční přípravě na havarijní stavy. Říká, že většina problémů, které jeho pracovní skupina zažívá, je zaviněna neadekvátním testováním, špatnou konfigurací či jinými chybami, a proto se snaží restrukturovat procesy tak, aby se tyto chyby odstranily.
„Velký důraz v programech podporujících vysokou míru dostupnosti klademe u nás na to, aby se kvůli možným mimořádným situacím nasadilo raději více techniky a kapacit, než je pro běžný provoz zapotřebí, ale já si myslím, že to není zrovna pravá cesta k reálnému zvýšení dostupnosti,“ říká. „Většina výpadků, které řešíme – a pokud se podíváte na to, jak to hodnotí analytici, dá se říci, že většina výpadků obecně – rozhodně není zaviněna technikou, nýbrž lidmi, kteří zavádějí nějaké změny.“
Program vysoké dostupnosti se slaďuje s iniciativou pro počítačové utility, jež se ve firmě rovněž realizuje, což Ferrisovi a jeho lidem umožňuje provést změny v procesech poskytování a správy aplikací tak, aby to bylo v souladu s oběma hledisky. Cílem je postupně přejít od serverů určených pro jednotlivé aplikace k modelu sdílené infrastruktury, v jehož rámci si budou vlastníci aplikací kupovat od skupiny IT sadu služeb – počítačové zpracování, paměťovou kapacitu, dostupnost apod.
Každou takovou IT službu si budete moci pořídit na zlaté, stříbrné nebo standardní úrovni servisu. Před nasazením aplikace budou muset vlastníci stanovit, kolik počítačových zdrojů bude aplikace potřebovat, kolik prostoru na ukládání dat a jakou míru dostupnosti, což vše dohromady spolurozhodne o tom, zda se určitá aplikace bude používat na samostatném stroji, nebo ve skupině spravované lokálně, nebo ve skupině, která je podporována jednak lokálně, a jednak je schopná podporovat spolupracující obchodní server vzdálený 30 kilometrů.
Zatímco každá úroveň služeb se promítne do konkrétní konfigurace standardu, administrátorský model bude konzistentní a sladěný na všech třech úrovních. Takto konsolidova-
ná infrastruktura výrazně snižuje náklady na hardware, zejména u konfigurací natavených na vysokou míru dostupnosti, a jak poznamenává Ferris, tato výhoda se nejvýrazněji projeví při kontaktu s jinými skupinami, které mají své vlastní servery pro testování, vývoj a výrobu.
„Obzvláště když začnete pracovat s vysokou dostupností,“ říká, „je pak velice těžkopádné, běží-li všechny vaše aplikace na vlastních serverech. Když vezmete všechny své databáze Oracle a zkombinujete je, řekněme s tříuzlovou skupinou („three-node cluster“), jak to děláme my, můžete tam umístit spoustu databází. Nemusíte pak mít 15 oddělených databázových serverů a vzhledem k požadavkům na určitou aplikaci potom můžete snadno konfigurovat databázi na takový kapacitní přesah („fail-over“), jaký potřebujete, protože už máte vytvořenou svou skupinu („cluster“).“
Jedním z klíčových prvků je standardizovat konfigurace produkčních (výrobních) serverů a zabezpečit, aby této standardizaci odpovídaly i testovací a vývojové servery. Centrální skupina zodpovědná za management uvádění nových produktů zavede každý nový kód či změnu do výroby a zajistí, aby bylo vše propojené s testováním a vývojem, podrobí to soustavě testů a nakonec uvede do výroby.
„V prostředí zavádění a výroby už nebudou mít vývojáři ani vlastníci aplikace přístup k administrátorským právům,“ vysvětluje Ferris. „Nebudou mít patrně administrátorský přístup ani k testování a vývoji.“ Pokud by ho měli, říká Ferris, prostředí bude pečlivě řízeno tak, aby se zabezpečilo, že testované konfigurace vskutku odpovídají těm, které se používají na výrobních severech.“
Oddělení IT používá BladeLogic pro management podobných konfigurací, kontroluje nově uvolněné produkty a musí pravidelně vytvářet zprávy o souladu, aby se včas přišlo na odchylky od standardních konfigurací. Kontroly napomáhají tomu, aby se chyby nepromítly do výrobních serverů, obrazy standardního systému urychlují zabezpečení rezerv – což se může při řešení havarijních situací hodit.
„Spojili jsme konfiguraci našeho skupinového serveru Veritas, základní operační systém a databázi Oracle do jedné opakovaně použitelné konfigurace, která nám umožňuje snadno kompletně obnovit prostředí,“ říká Ferris. „Pro IP adresy si můžete definovat proměnné, takže je pak snadné znovu vytvořit vícevrstvou aplikaci v novém prostředí.“
Investice do dostupnosti dat
Kromě toho, že zabezpečuje dohled a činí složitou infrastrukturu ovladatelnější, umožňuje kombinace standardních konfigurací, standardních procedur, nástrojů automatického vytváření rezerv a konsolidované infrastruktury výrazně snížit náklady na vysokou dostupnost. Přitom se uplatňují i jiné technologie, zvláště skupinové ukládání a virtualizace serverů.
Přestože se mnohé související náklady snižují, vyžaduje provoz každého datového centra velké investice do lidí, kteří je spravují, nemluvě o času a energii vynaložených na zlepšování procesů, které ovládají celou infrastrukturu. Školení, standardy a pečlivý management změn budou mít čím dál tím větší význam vzhledem k tomu, že aplikace jsou stále složitější a vzájemně provázanější.
Ponaučení se můžeme vzít ze slavného případu „ztraceného serveru“ NetWare, který běží už čtvrtým rokem od chvíle, kdy ho zedníci obestavěli zdí: nejlepší věc, kterou můžete pro systém udělat, je nechat ho na pokoji. To ovšem u většiny obchodních aplikací nepřichází v úvahu, zejména v dnešní době, kdy se vše rychle mění. Ale nemůžete-li rovnou postavit zeď, můžete alespoň začít zavádět omezení. 07s0048/jp o