Utility computing

Se závažnými změnami zpravidla souvisejí i nezanedbatelné náklady. Jen velmi málo IT organizací přitom má dnes toli...


Se závažnými změnami zpravidla souvisejí i nezanedbatelné náklady. Jen velmi
málo IT organizací přitom má dnes tolik prostředků, aby si mohly dovolit
utratit nějakou korunu navíc. Není proto překvapivé, že se i nástup utility
computingu (UC), jenž byl opěvován coby největší změna paradigmatu od doby, co
se roztočil první pevný disk, poněkud pozdržel. Nepomáhá mu ani to, že se
marketingoví géniové, kteří s tímto konceptem vlastně přišli, dosud neshodli na
tom, co přesně tento termín doopravdy znamená.
V současné době pro utility computing existují tři základní definice.

UC jako zdroj pro on-demand computing: Někdy je tento přístup označován rovněž
adaptive computing, podle toho, se kterým analytikem či prodejcem se právě
bavíte. On-demand computing (výpočetní kapacita na vyžádání) firmám umožňuje
outsourcovat podstatnou část svých datových center a přitom rychle a snadno
průběžně zvyšovat a snižovat své požadavky na výpočetní zdroje podle toho, jaké
mají aktuální potřeby. Pro jednoduchost si lze představit, že jde o velmi
sofistikovaný a flexibilní hosting.

UC jako organické datové centrum: Tento přístup je považován za vrchol uvedené
techniky. Popisuje novou architekturu, která využívá širokou škálu technologií
tak, aby datovým centrům poskytla možnost bezprostředně reagovat na obchodní
potřeby, tržní změny nebo požadavky zákazníků. Taková datová centra nejenže
reagují okamžitě, ale také prakticky bez námahy či obtíží, takže oproti
tradičním koncepcím datových center vyžadují výrazně méně IT personálu.


UC jako grid computing, virtualizace nebo inteligentní clustery: Toto jsou jen
příklady specifických řešení navržených pro naplnění výše uvedených definic.
Mezi další technologie, které zde hrají významnou roli, patří utility storage,
privátní vysokorychlostní WAN připojení, technologie pro lokální propojení
výpočetních jednotek (jako je InfiniBand), blade servery apod.
Uvedené popisy tří základních alternativ UC jsou dosti odlišné, ale faktem je,
že jsou závislé jedna na druhé. Navíc je tato závislost nezbytnou podmínkou pro
jejich přežití. Aby mohl utility computing vůbec naplnit obsah svého označení,
tedy zdroje výpočetních a dalších kapacit, které můžete zapojovat podle
potřeby, je nezbytné, aby byl tento zdroj distribuovaný, schopný automatické
správy a virtualizovaný. Zda bude tato ambiciózní vize někdy naplněna, je stále
otevřenou otázkou, ale přinejmenším některé z nezbytných technologií už na
světě jsou.

Kdo si vede nejlépe
Nejblíže k uskutečnění vize utility computingu má ta verze, která je založena
na principu on-demand (na požádání). Dodavatelé, jako je například Dell, EMC,
Hewlett-Packard, IBM či Sun, už řešení postavená na této myšlence nějakou dobu
prodávají. V tomto roce byla z uvedené skupiny nejaktivnější firma Sun
microsystems, jež oznámila, že se hodlá stát společností využívající výpočetní
cykly na dálku (doslova electric company of off-site computing cycles).
Grid společnosti Sun je tvořen několika regionálními výpočetními centry (dosud
je jich šest v různých částech Spojených států), přičemž v každém z nich je
provozován stále rostoucí počet výpočetních clusterů založených na gridové
technologii Sunu s označením N1.
Sun chce zmatky panující kolem utility computingu eliminovat, a tak vzbudit
zájem zákazníků. Přistoupil proto k velice jednoduchému systému stanovení ceny:
jeden dolar za jednu hodinu provozu jednoho CPU. Sun přitom počítá s minimální
dobou využití 4 hodiny lze ovšem očekávat, že dojde i ke snížení tohoto limitu,
jakmile se efektivita operací zlepší.
Většina analytiků se ale shoduje na tom, že vedoucím dodavatelem na tomto poli
je IBM. Tato firma poskytuje služby založené na UC klientům svých oddělení On
Demand and Global Services. "Někteří dodavatelé jsou příliš zahleděni do
představy přístupu k výpočetnímu výkonu," říká Dave Turek z firmy IBM.
"Výpočetní výkon však může mít řadu forem včetně těch, které nemusejí mít nutně
podobu gridu nebo virtualizace, ale i těch, jež se více podobají standardním
formám hostingu. Pak záleží na potřebách zákazníka a ty se mění velice rychle."
Podle Turka je podstatou On Demand služeb od IBM poskytování řešení šitých na
míru podle individuálních požadavků. "Utility computing by měl být základním
typem služby, podobně jako dodávka vody nebo elektřiny. Oproti nim by UC mělo
nabídnout podstatně proměnlivější prostředí.
HP, která pro své UC používá pojmenování Adaptive Enterprise, sleduje stejnou
myšlenku, založenou na IT infrastruktuře, jež reaguje na měnící se obchodní
požadavky. Podle představitelů HP je utility computing něco, co se vztahuje k
technologiím aplikovaným na obchodní proces. HP už dnes má zákazníky, kteří
přistupují ke zdrojům kvůli zvýšení výpočetního výkonu podobně jako u řešení
Sun Grid, avšak podobně jako IBM pod označení utility computingu umísťuje i
konzultační služby či tradiční hosting.

Přitažlivost řešení
Většina zákazníků velmi dobře rozumí výhodám pružného hostingu. Ale co
virtualizované samostatně se spravující datové centrum (za předpokladu, že bude
možné této vize dosáhnout)? Firma Forrester vidí velkolepý koncept utility
computingu jako řešení pro tři klíčové problémy: zbytečně nákladné nákupy
technologií, pracná realizace IT procesů a nepružné možnosti IT všechny v
podstatě paralyzují obchodní procesy. Vyřešte tyto tři problémy, a budete
schopni lépe zužitkovat existující zdroje, doporučuje Forrester. Počáteční
investice do poskytování služeb či virtualizace se ospravedlní díky redukci
výdajů, zpomalení růstu počtu IT personálu nebo získání nové úrovně pružnosti
pro obchodní procesy.
Organizace by měla být v konečném výsledku schopná provádět více pracovních
úloh na méně strojích v menším počtu datových center toho lze dosáhnout
využitím vícesystémových architektur, jako jsou blade servery, clustery či
gridy. Kombinací takového hardwaru s redukovaným počtem operačních platforem
bude znamenat rychlejší zpracování a odezvu i menší objem školení zaměstnanců.
Tato konsolidace ale neznamená jen jednorázové rozhodnutí typu "nainstaluj a
pracuj", nýbrž postupný proces, který mj. zahrnuje vyhodnocování každého nákupu
technologického řešení.
ClearCube je typickým příkladem dodavatele produktů orientovaných na utility
computing. Vyrábí především pracovní stanice formátu blade, které se zasouvají
do centralizované propojovací skříně, takže celý blade systém ClearCube
odpovídá potřebám utility computingu a splňuje mnohé z požadavků, jež tradiční
pracovní stanice jednoduše splnit nemohou.
Blade systém ClearCube může být během doby mimo hlavní vytížení snadno
konvertován na systém pro grid computing. ClearCube na realizaci této funkce
spolupracuje s firmou Data Synapse, jejíž GridServer Virtual Enterprise Edition
představuje softwarovou vrstvu, která virtualizuje aplikační služby a uvedený
proces řídí napříč distribuovanými hardwarovými systémy. Utility computing tak
pro firmu ClearCube znamená vytvoření rozhraní mezi výpočetním zařízením a tím,
co lze označit za plovoucí datové centrum vlastně se přepojuje kabel mezi
uživatelem a dedikovaným lokálním datovým centrem. Klíčovým úkolem pro utility
computing je proto vývoj technologie, která tento kabel virtuálně nahradí.

Prosazení gridu
Gridy poskytují perfektní vstupní bránu do světa utility computingu, neboť se
řídí zlatým pravidlem nabídnout více muziky za méně peněz, lépe řečeno výkon
superpočítače za cenu několika pracovních stanic. Přinášejí dokonalou
flexibilitu a nevyžadují odstranění či nahrazení existující infrastruktury.
Tyto výhody jsou k dispozici jak poskytovatelům outsourcingových služeb, tak
těm, kdo grid provozují v rámci podniku.
Grid cluster představuje podle Dona Beckera z firmy Penguin Computing soubor
nezávislých strojů vzájemně propojených privátní sítí, nad nimiž se nachází
specifická softwarová vrstva. Tato softwarová vrstva včetně způsobu, jak řídicí
uzel (master node) ovládá rozličný počet výpočetních uzlů, zajišťuje, že se
celý cluster jeví jako jediné výpočetní řešení. Nejběžnějším příkladem gridu v
akci může být řešení pro náhle přetížený webový server.
Ačkoliv se standardy pro správu hardwarového gridu rychle rozvíjejí, stále
chybí jedna kritická komponenta jedním z nejdůležitějších úkolů, co se týká
provozování softwaru v jakémkoliv prostředí gridu, je podle Briana Cheea (ten
pracuje na projektu clusteru s 90 uzly na Havajské univerzitě) reorganizace
softwaru. Problém je třeba rozdělit na více částí, ty pak přidělit každému
výpočetnímu uzlu, přičemž přenosy dat a výsledky musejí být organizovány
synchronně nebo asynchronně. Pokud propojujete dva gridy, problém je rozdělen
na dvě položky, z nichž každá je připojena k jednomu prostředí a pak je dále
členěna v rámci příslušného gridu. Výsledky jsou pak opět shromažďovány
obdobným způsobem. Návrh softwaru pro použití v prostředí gridu je přitom
obtížný a časově náročný, neboť programy musejí být přepsány, aby vyhovovaly
příslušnému rozhraní MPI (Message Passing Interface), jež je základem grid
computingu. Nedá se jen něco přidat jde o přepsání od základu, a to bývá kvůli
komunikačním problémům dosti obtížné. Tento stav je pro většinu podniků už sám
o sobě důvodem, proč grid computing zatím ignorovat. Během posledního roku se
nicméně objevilo několik sad nástrojů jako je třeba toolkit od Globus Alliance,
které by mohly být při řešení uvedeného problému přínosné. Ačkoliv tyto sady
zjednodušují datovou komunikaci v gridu, portování aplikací na tento model není
hračkou. Aby mohl software pracovat v rámci gridu, musí být navržen jako
vícevláknový (vícevláknová architektura je popsána ve standardu Posix 1003.1C
standardizačního sdružení IEEE). Portování softwaru na tento model však stále
znamená spoustu práce. S MPI toolkity je to ale možné zvládnout předtím to
připomínalo spíše vědu o raketách.
Design vícevláknových aplikací byl zjednodušen i díky tomu, že se celé odvětví
orientuje na webové služby a architekturu SOA, která je už ve své povaze
vícevláknová. Zvládnutí migrace těchto aplikací na principy utility computingu
bude zřejmě možné ještě v tomto roce. Globus Consortium, což je skupina
propagujícící nástroje vyvinuté sdružením Globus Alliance, oznámilo, že má v
úmyslu rozšířit OASIS WS-RF (Web Services Ressource Framework) tak, aby
zahrnoval i specifické vlastnosti orientované na grid computing.

Daleko před námi
Gridy jsou pouze jedním z příkladů toho, jaké výzvy bude nutné vyřešit, aby
byla naplněna vize utility computingu. Mezi další oblasti, na nichž bude třeba
ještě zapracovat, patří ukládání dat, problematika sítí WAN, bezpečnost a také
kompatibilita. Jak má tedy IT oddělení plánovat migraci na model utility
computingu? Začněte u svých aplikací," radí Becker z firmy Penguin. "Zjistěte,
co na čem vlastně běží. To je důležité kvůli tomu, že musíte zvolit takové
řešení řízení, které je schopno spolupracovat s každou vaší platformou." Becker
současně také doporučuje přejít na standardní hardwarové platformy jeho
favoritem je model postavený na architektuře Intel/AMD. Nakonec prý zvažte
přechod na jedinou platformu. "V současné době je nejvhodnější volbou pro
oblast utility computingu Unix. Pod ním máte jednoduše více možností než pod
Windows," dodává Becker.
Skutečným pionýrem utility computingu je podle Cheea ale firma Oracle a její
databáze ve verzi 10g. Jde o jednu z relativně mála "standardních" podnikových
aplikací, jež jsou dostupné včetně specifické podpory pro grid computing.
Database 10g podporuje funkci označovanou jako RAC (Real Application Clusters),
která však byla poprvé představena už ve verzi Oracle9i. RAC umožňuje
administrátorům provádět virtualizaci serverů a poskytovat softwarové zdroje na
základě aktuálních požadavků na výkon. Tyto funkce lze navíc využívat i v rámci
hardwarových poolů, takže je možné, aby byly například podle potřeby zařazovány
či vyřazovány další blade servery, zatímco celý pool se chová jako jediný
výpočetní zdroj.
Ačkoliv se softwarové produkty, jako je Database 10g, stále vyvíjejí,
hardwarové platformy už dosahují mnohem vyššího stupně vyspělosti. Produkty,
jako třeba systémy ClearCube, mohou i bez specifické podpory softwaru nabídnout
mnohé výhody, jež manažerům dovolí přechod k datovým centrům založeným na bázi
utility computingu začít vyhodnocovat. Jistě, stále chybějí některé nezbytné
nástroje, avšak nákladové výhody takové architektury jsou příliš přesvědčivé,
než aby je bylo možné přejít jen mávnutím ruky.

Jak řídit neřiditelné
Utility computing má několik vrstev, přičemž žádná není důležitější než správa
datového centra. Na rozdíl od konvenčních řešení síťové správy musejí nástroje
pro management datového centra orientovaného na princip utility computingu
zasahovat nad rámec běžného monitoringu a analýzy. Současně musejí nabízet
široké možnosti virtualizace, poskytování zdrojů a především automatizace.
Jak Hewlett-Packard, tak i IBM o takových vylepšeních ve svých správních
systémech (OpenView, respektive Tivoli) informují, nicméně vývoj postupuje jen
pozvolna. Platforma Microsoft Operations Manager 2005 je orientována na
realizaci poskytování zdrojů či na centralizovaný monitoring, stále ovšem
postrádá specifickou podporu pro gridy a virtualizaci, nemluvě o podpoře jiných
operačních systémů, než je Windows.
Menší inovátorské firmy nám ale dnes dávají možnost nahlédnout, jaké úrovně by
automatizace datového centra mohla skutečně dosáhnout. Výborným příkladem může
být firma Opsware s produkty Server Automation System, Network Automation
System a Aset Management System. Díky specifické podpoře široké škály
serverových platforem, síťové infrastruktury a klientského hardwaru i softwaru
Opsware umožňuje, aby zákazníci mohli lépe automatizovat takové rozsáhlé řídicí
úlohy, jako je spouštění nových serverů, poskytování zdrojů, správa desktopů či
nasazení a management celopodnikového softwaru.
Avšak i řešení Opswaru nepřekračuje určitou úroveň. Brian Chee z Havajské
univerzity upozorňuje na to, že výše uváděné snahy jednoduše umožňují
automatizovat dnešní pojetí datového centra. Stále však chybí podpora správy
serverů jako výpočetních uzlů, dále správy aplikací ve vrstvách oddělených od
fyzických serverů a také správy místních i vzdálených zdrojů tak, jako by
tvořily jedinou entitu.
Organické samostatně se spravující datové centrum je sice úctyhodným cílem,
avšak produkty nezbytné pro jeho realizaci zatím zůstávají nedosažitelné.
Implementace utility computingu v jakémkoliv prostředí tak v následujících
letech přinese velké výzvy pro nejedno oddělení IT managementu.









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.