Ovládnou datová centra konvergované systémy?

23. 8. 2010

Sdílet

Výrobci se snaží zaujmout integrovanými výpočetními, úložnými a síťovými systémy usnadňujícími nasazení privátních cloudů. Jde o budoucí směr vývoje, nebo jen o humbuk, který brzy utichne?

Pokračující komoditizace serverů vede jejich výrobce ke snaze výrazněji odlišit svou nabídku od konkurence. Jednou z možností, které se nyní vyskytují, je nabídnout klientům vysoce integrovanou „unifikovanou výpočetní platformu, zahrnující jak vlastní servery, tak i systémy pro ukládání dat, síťová řešení a související software pro správu,“ vysvětluje Rockwell Bonecutter, šéf technologií pro datová centra a provozní zvyklosti ve společnosti Accenture.

Dodavatelé se pokusili o něco podobného před několika lety pomocí představení modulárních produktů „datové centrum v krabici“. Tentokrát se však už balením neomezují a zaměřují se rovnou na jádro infrastruktury datového centra.

Komplexní řešení
S integrovanými systémy si jako uživatel nekupujete jen server, získáváte najednou celou infrastrukturu jako jednu spravovanou entitu. Systémy jsou vysoce integrované a vysoce škálovatelné, obsahují výpočetní, úložné a síťové systémy a správu podnikových služeb, automatický management a schopnosti provisioningu. V některých případech mohou tyto systémy obsahovat dokonce i chladicí komponenty a řešení pro dodávku energie.

Při kombinaci s virtualizací mohou tyto konvergované systémy vytvořit základ prostředků pro zprovoznění privátního cloud computingu. Bonecutter si myslí, že tento přístup řeší skutečně bolavá místa IT. „Trávím většinu svého času setkáváním s řediteli IT a hovoříme o implementaci cloud computingu nebo o managementu či  nasazení funkcí provisioningu,“ vysvětluje Bonecutter.

„Řešení BladeSystem Matrix, které nedávno uvedla na trh společnost Hewlett-Packard, je předzvěstí toho, jak by mohla budoucnost infrastrukturních systémů vypadat,“ říká Jim Ganthier, viceprezident skupiny průmyslových standardů firmy HP. Uvádí, že jejich Matrix umožňuje správcům vyjímat a znovu zasouvat různé moduly ve formátu bladů mezi jednotlivými sloty, přičemž virtuální propojení uvnitř boxu zajistí, že se s těmito přesuny automaticky přeskupí i prostředky spojené s ukládáním dat a komunikačními potřebami – není tedy nutné provádět  reprovisioning.

Tyto systémy také umožňují realizovat vyvažování zátěže vycházející z potřeby optimalizovat spotřebu elektrické energie, utilizaci jednotlivých komponent nebo kombinace obojího. U řešení Matrix je „vaše skříň zároveň vaším datovým centrem“. Hewlett-Packard plánuje použít ještě během letošního roku stejný model i u rozvaděčových serverů doplněných o funkcionalitu úložišť a síťových přepínačů.

Něco za něco
Společnost IBM zaujala v tomto směru obdobný přístup. Podle svých představitelů chce vytvořit efektivnější integrovaný systém, který propojí všechny komponenty dohromady mnohem těsněji, než bylo dosud zvykem. Budou však ředitelé IT ochotni kupovat všechno to vybavení – úložné prostředky, servery a síťové systémy od Hewlett-Packard  nebo od IBM, aby mohli svůj projekt zprovoznit?

Tom Bradicich si myslí, že tomu tak bude. Tento viceprezident pro architekturu a technologii serverů x86 ve firmě IBM je přesvědčen, že právě zaměnitelnost a nahraditelnost učinila platformu x86 mezi uživateli tak populární. Domnívá se však, že podniky budou ochotné vyměnit část této flexibility za vyšší efektivitu systému, i když se některý ze systémů x86 změní tak, že bude zahrnovat některé proprietární technologie – zákazník se podle něj v tomto případě raději přikloní pro integrovaný balík od IBM.

Ačkoli uznává, že v nové architektuře bude snížena nahraditelnost jednotlivých komponent, je přesvědčen, že „bude tolerovatelná, protože komplexní pracovní vytížení zvýší výhodnost takového nákupu. Vznikne vyšší tolerance uživatelů k částem systému, které budou spíše fixní než vyměnitelné za případné konkurenční řešení.“

Také společnost Dell rozvíjí podobnou strategii, ale zahrnuje podporu rovněž pro zařízení od jiných dodavatelů a také používá otevřenější přístup založený na standardech. „Používáme heterogenní komponenty, ale spravujeme je konvergovaným způsobem,“ uvádí Paul Prince, technologický ředitel skupiny podnikových produktů Dell.

Co mluví proti?
Robert Beach, ředitel služeb IT v jedné z amerických vládních institucí, považuje nápad za velmi zajímavý, ale není si jist, zda chce být opravdu připoután k jednomu dodavateli pro všechny komponenty výpočetního centra. „Připadá mi to jako příliš velká sázka na jednu kartu,“ vysvětluje Beach.

Ian Patterson, ředitel IT společnosti Scottrade, která provozuje rozsáhlá datová centra, se rovněž obává o nahraditelnost a nelíbí se mu omezení počtu dodavatelů. Uvádí však, že „by to mohlo být z dlouhodobého hlediska pozitivní – jednoduše prý kvůli schopnosti sledovat interakce všech těchto součástí v jedné krabici.“

Vidí potenciál vyššího výkonu, než který může získat od zařízení spravovaných v síti, ale uvádí, že na hodnocení je stále příliš brzy. „Sledoval bych to tak 12 měsíců, než bych se rozhodl k vlastnímu podrobnějšímu prozkoumání životaschopnosti této technologie,“ uzavírá Patterson.

Problémy s licencemi
S nástupem serverů, jejichž základní desky jsou osazeny procesory s mnoha jádry, analytici přemýšlejí, jak dlouho ještě vydrží současné cenové schéma pro software, až čipy dosáhnou 12, 16 či více jader.

Nástup osmi- a dvanáctijádrových čipů x86 může totiž být z důvodu licencování softwaru podle počtu procesorů pro uživatele serverů společnosti Microsoft velmi výhodné. Nová vícejádrová technologie slibuje zvýšení kapacity čipu při teoretickém snižování počtu procesorů. V tuto chvíli to nevypadá, že by se Microsoft nějak obával budoucího snížení svého obratu za licence serverů v důsledku toho, že jeho zákazníci přecházejí na stále výkonnější čipy. Analytici si však kladou otázku, jak dlouho to tak bude, protože výrobci procesorů počet jader ve svých produktech neustále zvyšují.

Zástupci společnosti Microsoft v současnosti prohlašují, že plány na změnu ceníků podle počtu využívaných socketů neexistují – tento model licencování největší prodejce softwaru v současné době používá, přestože například firma AMD slibuje zahájení dodávek šestnáctijádrových čipů již v příštím roce.

Eric Jewitt, ředitel marketingu Microsoft Windows Serverů, uvedl, že jejich společnost považuje zvyšování počtu jader za pokračování Moorova zákona o zdvojnásobování kapacity každých 18 měsíců.

Firmy by mohly zvýšit výpočetní kapacitu svých serverů migrací ze čtyřjádrových procesorů na dvanáctijádrové či vyšší, což by v důsledku snížilo počet aplikovaných procesorů, a tedy i náklady za licence příslušných programů.

„To však funguje pouze tehdy, když uživatel vytváří zrcadlo databáze i v nových čipech,“ uvedl Jewitt. Stejně jako se zvětšuje kapacita čipů, zvyšuje se každým rokem i množství zpracovávaných dat (cca dvojnásobně), a vytváří se tak potřeba vyšší kapacity,“ uvedl.

Zvýšení výpočetního výkonu nemusí nutě odpovídat možnostem softwaru. „Jak výrobci procesorů přidávají další jádra na svůj čip, zvyšuje to potřebu dostupnosti softwaru, který musí běžet ve stále více paralelním prostředí,“ uvedl Scott Rosenberg, výkonný ředitel společnosti Miro Consulting, která poskytuje konzultace v oblasti softwarových licencí. „Software nyní musí přidat a hardwarový průmysl dohnat,“ uvedl Rosenberg.

Dodavatelé čipů ukazují, že podniky mohou snížit celkový počet serverů jejich přesunem na stroje s výkonnějšími procesory. Ne všichni dodavatelé programového vybavení však používají cenové programy podle počtu procesorů. Například společnost Oracle namísto toho určuje hodnotu svých aplikací podle konkrétních čipů jednotlivých výrobců. Například v případě procesorů od firem AMD a Intel má Oracle nastaven faktor procesoru 0,5 na jádro, takže čtyřjádrový procesor je počítán jako dva čipy.

Analytici ale už intenzivně přemýšlejí o tom, zda ceníky stanovené podle počtu procesorů či počtu jader vydrží i v dlouhodobém časovém horizontu.

Model nastavený podle počtu procesorů bude podle Rosenberga nadále neudržitelný a se vzrůstajícím počtem jader bude muset i společnost Microsoft časem přejít na jiné cenové schéma. Ceny na základě počtu jader podle něho mají šanci na úspěch.

Christopher Voce, analytik agentury Forrester Research, zase tvrdí, že dodavatelé softwaru by mohli začít vybírat poplatky za podpůrné nástroje, aby tak vyrovnali rostoucí počet jader. Dodal také, že se zvyšující se abstrakcí hardwarové vrstvy pro virtualizovaná prostředí bude pro dodavatele stále těžší odvozovat ceny od fyzického vybavení.

„Tradiční přístup k licencování se už nemůže dlouho udržet,“ uvádí Voce, který se domnívá, že se odvětví přesouvá k metrikám založeným na vlastnostech podnikání, jako např. podle počtu uživatelů.

Walter Czerniak, ředitel IT na univerzitě Northern Illinois University, prohlásil, že na základě 40 let zkušeností z oblasti byznysu neočekává, že by dodavatelé softwaru přicházeli o peníze kvůli zlepšením na straně procesorů. „Pokud začne kterýkoli dodavatel ztrácet velkou část obratu na základě změněné hardwarové technologie, nebude to dlouho trvat, kdy změní své licenční smlouvy,“ uvedl Czerniak. V šachu je zatím drží konkurence, dodal.

Scott Archibald, generální ředitel firmy Bender Consulting, která nabízí konzultace pro firemní management, očekává, že firmy provozující velká datová centra a významní poskytovatelé cloud computingu ve své infrastruktuře rychle nasadí nové výkonné čipy. Většina IT firem ze žebříčku Fortune 100 je však podle něj pod tlakem snižování nákladů a má tendenci nepřebírat zbytečné riziko u důležitých serverů, takže budou novinky zavádět mnohem pomalejším tempem.

Během příštích dvou let proběhne mnoho uživatelských testů, a „pokud toto úvodní seznámení prokáže přínos, lze u velkých IT firem očekávat migraci na vícejádrové servery během následujících tří až pěti let,“ dodává Archibald.