Servery jsou na cestě mířící k absolutní autonomii

Přetrvávající tlak na IT rozpočty se u mnoha IT oddělení obrátil v nutnost redukovat provozní náklady. Řada produkt...


Přetrvávající tlak na IT rozpočty se u mnoha IT oddělení obrátil v nutnost
redukovat provozní náklady. Řada produktů a konceptů, které jsou společně
řazeny pod označení "autonomic computing" (autonomní computing), by měla provoz
a údržbu firemních systémů zjednodušit a ve vyšší míře automatizovat.
Jako vzor pro vizi autonomního computingu (nebo snad soběstačných počítačů)
slouží "automatická" reakce živého organismu na změny okolního prostředí.
Přenesení tohoto principu na oblast informačních technologií znamená orientovat
se na vývoj funkcí, které systémům umožní samostatnou, resp. automatickou
správu. To přitom obnáší především vykonávání "samokonfigurace"
(selfconfiguration) a "samooptimalizace" (selfoptimization). Samostatná
konfigurace znamená automatické přizpůsobení konfigurace daného systému změnám
požadavků a samostatná optimalizace pak předem stanovuje automatické požadované
přizpůsobení systémových zdrojů ve firemních sítích. V případě "samooprav"
(selfhealing) jsou opětovně rozpoznány a korigovány chyby vlastní režie,
zatímco systémy s funkcemi automatické ochrany přístupu ke zdrojům kontrolují a
předcházejí neoprávněným přístupům.

Nové funkce
Primárním cílem autonomního computingu je redukovat počet manuálních zásahů, a
tím zajistit efektivnější provoz IT systémů ve firmách. Pro označení vlastních
konceptů používají firmy různé termíny mezi nejznámější projekty a technologie
autonomních systémů, jejichž vývojem se zabývají jednotlivé společnosti, přitom
můžeme zařadit mezi jinými projekt Eliza (na němž pracuje IBM), N1 (pod tímto
názvem vyvíjí svoji technologii společnost Sun) nebo Sysframe (označení, které
používá firma Fujitsu-Siemens Computers). Zatímco v počátcích šlo částečně
ještě o staré metody v novém kabátě a s novým označením, v poslední době se už
objevují i skutečné novinky první výsledky vývoje zaměřeného na autonomní
systémy.
Vedle novinek pro automatizaci systémového provozu (autonomní systémy) budou ve
druhé fázi nabízeny také samostatně se spravující konfigurace (autonomní
infrastruktury), které přesahují úroveň jednotlivých systémů. Přesněji řečeno,
jedná se o zatím v laboratořích předběžně testované konfigurace serverů,
storage, technologií zajišťujících konektivitu a middlewaru pro určité
aplikační oblasti, a to opět s vytyčeným cílem snížit náklady spojené s
provozem (např. infrastruktury založené na řešeních SAP či Microsoft Exchange).
Z toho vycházejí další projekty včetně řízení dimenzování a instalace, které
umožňují rychlou implementaci. Následující příklady ukazují typické oblasti
nasazení funkcí pro autonomní computing.

Automatická konfigurace
Speciálně v oblasti větších a dále se rozrůstajících serverových farem se při
stoupající výkonových nárocích stala důležitým tématem k diskusi efektivní
instalace dodatečných systémů. Zde může jako vhodné řešení sloužit technologie
či koncepce blade serverů. Tato architektura především způsobila posun na poli
nástrojů, s nimiž je možné dosáhnout centrálně řízeného využívání hardwarových
zdrojů (počítačových uzlů) pomocí jednotné softwarové konfigurace. Dalším
krokem je pak už jen spuštění instalace dodatečných uzlů (serverů) ve chvíli,
kdy je dosaženo špičkového zatížení. Toho lze docílit s pomocí automaticky
řízené konfigurace.
Uveďme si jeden příklad: Software společnosti Citrix pro rozkládání zátěže v
rámci farmy terminálových serverů založené na architektuře blade serverů
zjistí, že stávající zdroje využívá příliš mnoho uživatelů. Prostřednictvím
nástroje pro nasazování tedy bude vyvolána instalace dalších blade modulů
serverů, o které bude následně rozšířena výkonová kapacita celého svazku
serverů.
Na rozdíl od serverových farem ve front-endové vrstvě výpočetních center bude
samostatná konfigurace u velkých, na platformě RISC založených unixových
serverů realizována v rámci (uvnitř) systému. Potřebuje-li aplikace větší
množství zdrojů, budou poskytnuty prostřednictvím dynamické segmentace
(partitioningu) za běžného provozu. Podobným způsobem může být aktivováno také
přidání dodatečných procesorů.

Automatická optimalizace
Potřeba vylepšování IT infrastruktury se nepochybně skrývá také v ohledu
efektivnějšího využití serverové kapacity. Je zcela běžné, že v průměru 40 %
veškerých nasazených systémových zdrojů není využito. Typickým příkladem z
praxe jsou instalace řešení SAP: Pro služby těchto systémů jsou většinou
využívány dedikované servery, které jsou vždy dimenzovány na určitý špičkový
výkon/zatížení. To má za následek fakt, že množství zdrojů je využíváno jen
zřídka (při dosažení špičkového zatížení) nebo po většinu doby provozu dokonce
zcela leží "ladem". S pomocí technologií pro samooptimalizační konfiguraci je
možné dosáhnout s tím související úspory nákladů až 60 %. Základní princip zde
spočívá v tom, spustit danou službu řešení SAPu teprve poté, když je skutečně
třeba ji využít a sice dynamicky na libovolném místě firemní infrastruktury,
kde jsou k dispozici volné hardwarové zdroje. Řídicí instance přitom hlídá a
sleduje, které služby bude třeba spustit.
Jestliže je aktuálně potřeba využít určitou službu, která ještě není spuštěna
nebo pro ni dosud není k dispozici dostatek zdrojů, bude aktivován dodatečný
server. Ten se nabootuje ze systému NAS (Network Attached Storage), v němž se
nachází i software zajišťující zmíněnou službu (tj. například SAP) a operační
systém, a poté spustí službu. Stejně tak není třeba opět deaktivovat server,
který následně po ukončení služby nebude nezbytně nutné udržovat v provozu.
Přitom databázové systémy mohou využívat intelovské nebo riscové unixové
stroje, zatímco (blade) servery založené na platformě Intelu pracující pod
Linuxem slouží jako platforma pro řídicí instanci a služby. Výhoda autonomní
infrastruktury spočívá v drastické redukci nevyužitých serverových kapacit
(samooptimalizaci) i v podstatně zjednodušeném provozu. Vítaným vedlejším
efektem je současné zvýšení dostupnosti: Jestliže dojde k výpadku některého z
uzlů, bude příslušná služba automaticky opětovně spuštěna na jiném uzlu
(samooprava).

Optimalizace zdrojů
Zatímco optimalizace zdrojů je u intelovských serverů řešena prostřednictvím
tzv. scale-out koncepce (tedy přidáním dalších počítačových uzlů), nabízejí
unixové podnikové servery rozsáhlé optimalizační funkce uvnitř (v rámci)
samotného systému. Možným řešením je zde fyzická segmentace (partitioning).
Přitom každý oddíl představuje samostatný (nezávislý) server s vlastní instancí
operačního systému. Protože jsou jednotlivé oddíly od sebe "vodotěsně"
odděleny, je celý systém velmi robustní a vyznačuje se vysokou dostupností.
Správa oddílů je prováděna z jednoho místa. S pomocí dynamické segmentace a
rekonfigurace mohou být systémové desky nebo jejich části "přesunuty" z jednoho
oddílu na druhý. Na tomto principu jsou poskytovány zdroje tam, kde je jich
právě třeba. Navíc jsou k dispozici nástroje pro správu zdrojů, které
optimalizují volné zdroje serveru nebo oddílu. Aplikace tyto zdroje sdílejí,
přičemž může být garantováno např. využití cyklů procesoru nebo paměti.
Přidělování zdrojů příslušným aplikacím je prováděno za běžného provozu podle
předdefinovaných pravidel nebo dynamicky v závislosti na konkrétní situaci.
Nejen v počítačových centrech, ale také v oblasti koncových uživatelů bylo
dosaženo pokroku směrem k autonomnímu computingu. Jasně vidět to bude zejména
na příkladu mobilního computingu: Stále více uživatelů se chce z přenosných
koncových zařízení dostat bezdrátově k e-mailovým systémům nebo k podnikovým
ekonomickým aplikacím zajišťujícím vyřizování zakázek nebo řízení vztahů se
zákazníky (CRM, Custom Relationship Management). Typickým problémem pak je, že
u různých koncových zařízení, u nichž jsou často podporovány odlišné
komunikační či propojovací technologie GSM, WLAN nebo GPRS, se musí prosadit
vzhledem k nákladům i dostupné šířce pásma nejvýhodnější technika přenosu.
Stejně tak musí být přizpůsobeno uživatelské rozhraní cílové aplikace velikosti
displeje notebooku, PDA nebo tabletového PC. Dnes už však jsou k dispozici
řešení, u nichž je automaticky zvoleno optimální spojení. Také softwarové
nástroje pro automatické přizpůsobení uživatelského rozhraní jsou již dostupné.

Samouzdravení
U určitých (kritických) aplikací často nejsou funkce pro zajištění vysoké
dostupnosti jednotlivých systémů dostačující. Dokonce i krátkodobý výpadek
jediné komponenty v databázové konfiguraci může mít za následek delší narušení
dostupnosti, neboť aplikace potřebuje pro obnovu konzistentního stavu někdy i
několik hodin. Díky autonomní infrastruktuře je možné se této situaci vyhnout.
Za tímto účelem jsou kombinovány servery propojené v clusteru, redundantní
propojení mezi servery a paměťová zařízení, je zajištěno i zrcadlení dat ve
dvou nezávislých storage systémech, a to vše je řízeno speciálním softwarem s
cílem vytvořit prostředí, které je zabezpečeno proti výpadku. Jestliže je opět
dostupná komponenta, která byla příčinou výpadku některého ze serverů, je znovu
obnovena redundance.

Magie serverů
V posledním roce začalo množství výrobců hovořit o snaze redukovat počet
manuálních zásahů, urychlit řešení problémů, automatizovat konfiguraci serverů
či zajistit konzistenci a bezpečnost v prostředí datových center. Mezi ně patří
např. BladeLogic, start-upová firma, jejíž softwarové moduly umožňují
zaopatřovat, analyzovat a řídit servery ve firemní síti z bezpečné konzole.
Software automatizuje řadu konfiguračních procesů, jako např. aplikaci patchů
atd. Kromě této firmy se objevily i další, jako např. CenterRun, Jareva,
Moonlight či PlateSpin. Také zavedení výrobci softwaru pro správu
(Hewlett-Packard, Novadigm, Marimba) vylepšili svoji nabídku o podobnou
funkcionalitu.
Tito dodavatelé přitom reagují na několik faktorů: nedostatek kvalifikovaných
odborníků, potřebu eliminovat chyby vznikající při konfiguraci serverů (které
mohou vést k výpadkům), jakož i vývoj softwaru směrem k automatizovanému
provozu.
Specifika systémů jednotlivých výrobců se samozřejmě liší, ale princip může být
popsán následovně: Softwarový nástroj pracuje s centralizovaným "master"
serverem a se softwarovými agenty nasazenými na spravovaných serverech v
datovém centru. Serverový software komunikuje s agenty, kteří kontrolují data o
konfiguraci a výkonu každého spravovaného serveru. V některých případech
software zahrnuje skripty, které spouštějí automatizované akce, aby provedly
report o konfiguračních chybách nebo přímo dynamicky změnily konfiguraci na
základě určitých parametrů. Master server může obsahovat archiv dat, v němž
jsou uloženy veškeré změny týkající se uživatelů, aplikací i serverů, jakož i
informace o prováděných akcích.
Na centrálním serveru mohou sídlit i další aplikace, které zajišťují některé
specifické automatické úlohy. Někteří z výrobců nabízejí také aplikace či
softwarové moduly zajišťující automatizaci určené pro specifické produkty
třetích stran, např. pro aplikační servery WebLogic nebo WebSphere firem BEA,
resp. IBM.
Nástroje tohoto typu nejsou v mnoha případech nijak levné, ale je třeba zvážit,
zda se vzhledem k redukci manuálních zásahů při správě a konfiguraci většího,
potažmo rychle rostoucího počtu serverů nevyplatí. Je možné počítat také se
zvýšením bezpečnosti, neboť např. při automatické distribuci patchů jsou
eliminovány díry, které mohou vznikat nepozorností administrátorů.









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.