Hlavní navigace

Virtualizace: Pozor na přetížení serveru (1.)

Sdílet

S tím, jak virtualizace proniká hlouběji do podnikové sféry a zahrnuje klíčové aplikace náročné na zdrojové prostředky, manažeři IT zjišťují, že se dvouciferné poměry fyzických a virtuálních serverů stávají minulostí.

Dodavatelé virtualizace sice stále mohou nabízet potenciál 20, 50 a dokonce 100 virtuálních strojů (VM) na jedno fyzické zařízení, ale IT manažeři i oboroví experti varují, že takové poměry jsou při použití v produkčních prostředích nebezpečné a mohou způsobit výkonnostní problémy, nebo dokonce výpadky.

„V testovacích a vývojových prostředích mohou firmy používat až 50 virtuálních strojů na jednoho fyzického hostitele, ale jakmile jde o klíčové a na výpočetní prostředky náročné aplikace, klesá tento ukazatel na méně než 15,“ upozorňuje Andi Mann, viceprezident výzkumu ve firmě Enterprise Management Associates (EMA).

Ve studii z roku 2009, v níž byly zpracovány údaje od 153 organizací s více než 500 koncovými uživateli, EMA zjistila, že při nasazení aplikací typu ERP, CRM, e-mailové servery či databáze dosahují podniky konsolidačního poměru v průměru 6:1.

Rozdíl mezi skutečností a očekáváním – ať už díky humbuku způsobenému dodavatelem nebo nerealistickými plány ohledně návratnosti investic – by mohly přinést potíže týmům IT. Je to proto, že zmíněný konsolidační poměr ovlivňuje snad všechny aspekty virtualizačního projektu – rozpočet, kapacitu i konečný souhlas odpovídajících manažerů. „Pustíte-li se do těchto virtualizačních projektů s očekáváním, jež neodpovídá realitě, dostanete se do potíží,“ varuje Mann.

Nadhodnocený poměr fyzických a virtuálních strojů samozřejmě může skončit potřebou nasadit větší množství serverového hardwaru, rozšířit místa v rozvaděči, zvýšit chladicí kapacitu i spotřebu energie – a to vše stojí peníze navíc. Ale co hůře, může to zasáhnout samotné uživatele nedostatečným výkonem aplikací.

„Pokud se společnost v začátcích vizualizačního projektu domnívá, že bude potřebovat jen 10 fyzických serverů a na konci jich ve skutečnosti bude mít 15, může to mít významný vliv na celkové náklady konsolidace a strhnout ji tak do finanční propasti. To není dobré, zejména v současné ekonomické situaci,“ prohlašuje Charles King, prezident a hlavní analytik konzultační společnosti Pund-IT.

Proč tedy dochází k rozporům mezi virtualizačními nadějemi a následnou skutečností? King říká, že dosud se mnoho organizací zaměřovalo na virtualizaci jen relativně nenáročných aplikací, jako jsou testování, vývoj, protokolování či souborové nebo tiskové servery. „Je možné umístit na jeden fyzický stroj desítky nenáročných aplikací, které nevyžadují vysokou dostupnost,“ odhaduje.

Bob Gill, analytik společnosti TheInfoPro, souhlasí. „Zpočátku se virtualizovaly systémy, které měly utilizaci méně než 5 %. To byly aplikace, jejichž hodinový výpadek nikoho nerozzlobil,“ vysvětluje. To ale není případ klíčových aplikací náročných na prostředky. Tuto skutečnost však dodavatelé vizualizačních systémů nevysvětlili zákazníkům včas, myslí si někteří analytici.

Jakmile zvažujete zahrnout do procesu virtualizace aplikace s vysokým poměrem utilizace, velkými riziky ohledně zabezpečení a také programy se zvýšenými nároky na výkon a dostupnost, konsolidační poměry výrazně poklesnou.

„Tyto aplikace si budou vzájemně konkurovat při využívání dostupné šířky pásma, paměti, procesoru i úložiště,“ tvrdí King. Dokonce i na strojích se dvěma čtyřjádrovými procesory bude u virtualizovaných vysoce transakčních aplikací docházet k problémům s průchodností sítě a s nedostatkem výkonu při jejich souboji o pool výpočetních prostředků daného serveru.

Zde jsou čtyři tipy, jak se vyhnout přetížení serveru:

1. Začněte analýzou kapacity
Ke zdolání problému s výkonem vizualizovaného prostředí musí týmy IT změnit své myšlení a přehodnotit svá očekávání. „Nejlepším místem, kde začít, je analýza kapacity,“ radí Kris Jmaeff, specialista na systémy zabezpečení informací ve úřadě pro zdravotnictví v Britské Kolumbii.

Před čtyřmi lety datové centrum tohoto úřadu rychle rostlo. Existoval zde velký tlak na virtualizaci produkčního prostředí tvořeného 500 servery s podporou hostovaných služeb, včetně DNS, Active Directory, webových serverů, FTP a mnoha databázových a aplikačních serverů.

Dříve než se Jmaeff vydal cestou konsolidace, použil nástroje VMwaru k provedení hloubkové analýzy kapacity, která monitorovala využití serverového hardwaru. (Podobné nástroje jsou mimo jiné dostupné také od společností Cirba, Hewlett-Packard, Microsoft, PlateSpin nebo Vizioncore.) Namísto zkoumání hardwarového prostředí po jednotlivých zařízeních se rozhodl pohlížet na vše jako na pool prostředků. „Plánování kapacity by se mělo zaměřit na prostředky, které může server poskytnout virtuálnímu poolu,“ tvrdí Jmaeff.

Tým byl schopen konsolidovat 250 serverů (50 % původní serverové farmy) na pouhých 12 fyzických hostitelů. I když celkový konsolidační poměr v datovém centru Jmaeffa činí 20:1, zařízení, na nichž běžely náročnější aplikace, si zároveň vyžádaly mnohem nižší poměr a bylo nutné u aplikací náročných na prostředky také vyvažovat zátěž.

Jmaeff používá kombinaci produktů VMware vCenter a IBM Director k monitoringu všech virtuálních strojů, zda nehlásí nevyváženost v souvislosti s výkyvy nároků na využití paměti nebo procesoru či zda nedochází k degradaci výkonu. „Abychom pracovní zátěž lépe rozložili, museli jsme aplikace rozmístit na více míst a upravit konverzní poměry podle požadavků na prostředky serveru,“ popisuje Jmaeff a dodává. „V případě nutnosti je servery snadné naklonovat a rychle rozložit aplikační zátěž.“

Dokončení článku a zbylé tři důvody vám přineseme zítra...