Musíme přiznat, že ačkoliv se nám představa mírných "středomořských" zim, námořních přístavů v Ústí či Děčíně a slaného příboje omílajícího západní úpatí Krušných hor zdá vcelku lákavá, nebereme problematiku globálního oteplování na lehkou váhu. Teplá zima může snadno znamenat sucho, povodeň či hurikán tedy především nevypočitatelný ráz klimatu a všechny související negativní dopady na ekosystémy, jejichž rozbor ponecháme jiným časopisům. Otázku spotřeby do světa IT před několika lety uvedla marketingová mašinérie AMD s příchodem Opteronu. Ještě usilovněji se energetické agendy chytil Intel při uvedení architektury Core do světa stolních PC a serverů. Konečně nejsilnější hurikánová sezóna roku 2006 v USA a právě končící nejteplejší zima na evropském kontinentu dává problematice spotřeby PC a serverů nový rozměr. Hovořit o energetických úsporách ve světě IT je nejen rozumné (kupříkladu v oblasti mobilních technologií tomu tak vždy bylo), moderní (příchod nových procesorů založených na multithreadingu si to vyžaduje), ale také cool (rok 2007 se patrně stane přelomovým, neboť lidstvo bude do budoucna vše vyjadřovat v gramech, kilogramech a tunách oxidu uhličitého). Hloubat nad plýtváním energií se v případě počítačů může zprvu zdát jako nepodstatné koneckonců jejich spotřeba se pohybuje v desítkách, maximálně stovkách wattů a jak jsme předvedli v našem nedávném tématu, úspory, jichž lze dosáhnout, nejsou sice zanedbatelné, zároveň se ale nejedná o závratné sumy. Když se ale v rovnici objeví vedle wattů také zlomyslné, ve skleníkový příkrov se houfující molekuly CO2, je vše najendou o poznání složitější. Ve firemní sféře s desítkami či stovkami stolních PC a desítkami výkonných serverů či diskových polí jsou navíc měrnou jednotkou desítky či dokonce stovky kilowattů.
Výzkum a vývoj firemních IT řešení se tak stále častěji věnuje sekundárně či dokonce primárně právě otázce spotřeby a souvisejícím oblastem jako je chlazení, napájení, optimalizace využití IT, automatická odstávka a vypínání nevyužitých systémů apod. Nejinak tomu je i v případě společnosti HP a jejího výzkumného střediska HP Labs v kalifornském Cupertinu, které jsme měli možnost nedávno navštívit.
HP DDC: dynamické chlazení datacenter
V případě datacenter, clusterů a dalších míst s vysokou koncentrací výpočetního výkonu se otázka spotřeby energie vztahuje nejen k teplu vyzářenému servery či diskovými poli, ale též k problematice chlazení. Veškerá vyzářená energie musí být odvedena coby odpadní teplo pomocí klimatizačních jednotek. Zatímco u malých a středních instalací odpovídají energetické nároky chlazení zhruba deseti až třiceti procentům vyzářeného tepla, u rozsáhlých datacenter se mohou blížit až hranici sta procent každý emitovaný watt má takříkajíc svůj protějšek ve ventilačním a klimatizačním systému. Drtivá většina datacenter ale postrádá jakýkoliv sofistikovaný systém pro řízení chlazení celého prostředí. Teplotní čidla jsou obvykle osazena jen na místech výstupu vzduchu z místnosti vytížení počítačů či diskových polí se ale průběžně mění a v datacentrech tak snadno vznikají "horká" místa či přechlazené oblasti. Systém "Dynamického chytrého chlazení", který HP vyvíjí, se zaměřuje na ideální umístění jednotlivých výpočetních prvků (umístění a osazení racků) a využívá systém monitorující teplotu přímo v místě výstupu horkého vzduchu z racků. Tato data jsou odesílána do jednotky, která řídí jednotlivé klimatizace. Podobné řešení umožňuje eliminovat horká i přechlazená místa, chladit pouze ty části datacentra, které jsou aktuálně zatíženy, případně efektivně nahradit výpadek některé z klimatizačních jednotek. Díky optimálnímu chlazení se navíc prodlužuje životnost hardwaru a především lze ušetřit přes 30 % nákladů na chlazení. HP odhaduje, že zhruba tři tisícovky datacenter instalovaných po celém světě mají spotřebu zhruba 6 GW (vyjádřeno ve formě fosilních paliv spotřebují datacentra ročně 25 milionů tun uhlí).
HP UX11i: virtualizace a adaptivní infrastruktura
Zatímco problematika chlazení datacenter je pro drtivou většinu smrtelníků vcelku nezajímavá a vzdálená, s virtuálními tenkými klienty bychom se mohli za několik let setkávat v reálném "kancelářském" provozu. Klíčovým problémem dnešních PC je zoufale nízké využivání jejich zdrojů. Zatímco v šedesátých a sedmdesátých letech bylo nutné na "strojový čas" mainframe počítačů čekat a nezřídka se zapsat do pořadníku, dnešní počítače drtivou většinu času čekají na uživatele. Typické stolní PC je vytíženo méně než z 5 % (zároveň ale není možné použít výrazně pomalejší HW, neboť uživatelé potřebují vysoký výkon nárazově). Počítače, které tak převážně zahálejí, pochopitelně potřebují ke svému provozu disproporcionálně vyšší množství energie, nemluvě o energetických nákladech na jejich výrobu a dalších nákladech na údržbu. Již před pár lety se začalo ve firemní sféře uvažovat o alespoň částečném návratu k filozofii mainframe systémů tzv. tenký klient, tedy kompaktní stolní PC ořezané doslova na kost, má zajišťovat pouze uživatelské rozhraní, zatímco klíčové operace probíhají na serveru. Dalším evolučním krokem v této oblasti by mohla být kompletní virtualizace stolních PC. Tak, jak se dnes na výkonných serverových řešeních virtualizují servery (na jediném fyzickém hardwaru běží několik virtuálních serverů, čímž se optimalizuje využití hardwaru, zvyšuje se bezpečnost, zjednodušuje správa atp.), mohly by v budoucnu být virtualizovány klasická pracovní PC. Představa společnosti HP vypadá asi takto: namísto běžného "tenkého klienta" (osekaného PC) bude na vašem stole v práci "supertenký klient" v podstatě jen zobrazovací adaptér, monitor a rozhraní pro klávesnici a myš. Po příchodu do práce se vaše PC virtuálně vytvoří na firemním serveru HP Integrity s unixovým operačním systémem HP UX z aktuálního obrazu pracovního systému a vašich uživatelských dat, uložených na firemním diskovém poli. Půvab takového řešení (z pohledu zaměstnavatele) není jen v jednoduché správě, údržbě a aktualizacích či maximálním zabezpečení, ale také v tom, že ve skutečnosti pro svou práci můžete dostat tolik výkonu, kolik potřebujete. Kupříkladu finanční analytik v bance vystačí většinu času se základním výkonem nezbytným pro běžnou kancelářskou práci, v okamžiku, kdy se ale pustí do zpracování velkého objemu dat, potřebuje velmi výkonné PC. V případě virtuálního stroje mu server může prostě přidělit více prostředků (paměť, CPU čas), případně zapnout další server či aktivovat více procesorů, aby byl potřebný výkon dostupný.
Server provozující desítky virtuálních PC je pochopitelně využit a vytížen mnohem efektivněji na druhou stranu tu může naopak dojít k situaci, kdy dostupný výkon nestačí. Pořízení výrazně výkonnějších serverů (víceprocesorových) je ale často nákladné. Mnozí výrobci nabízejí zajímavou alternativu. Namísto toho, aby firma zaplatila server s více procesory, zaplatí pouze za levnější konfiguraci (která je ovšem "plně" osazena). Nastane-li v budoucnu potřeba vyššího výkonu, dodavatel jednoduše další CPU aktivuje a zákazník zaplatí za jeho používání. Doposud bylo možné podobné změny realizovat zhruba v měsíčních intervalech, nový obchodní model serverů HP Integrity ale umožňuje u některých modelů zaplatit vyšší výkon podobně, jako si mnozí z nás kupují kredit do mobilního telefonu. Další procesory je tak možné v serveru aktivovat pouze na několik minut nezbytných k provedení náročných výpočtů (či v pracovní špičce, která typicky nastává v dopoledních hodinách). Virtualizace dostává zcela nové rozměry. Se supertenkými klienty a virtuálními stolními PC se patrně setkáme v dohledné době jen ve velmi specifických situacích a firmách jako jsou banky, brokerské domy či jiné finanční instituce, rozhodně se ale jedná o zajímavý způsob, jak učinit firemní PC nejen bezpečnější a spolehlivější, ale také ekologičtější.LUKÁŠ ERBEN
FSC X10Sure: k čemu je dobrý server navíc
Při vstupu do "serverovny" v malé firmě vás obvykle čeká stejná scéna: směsice stolních či rackových systémů, často postavených "na koleně", tu či onde zálohovací pásková jednotka, individuální disková pole RAID v jednotlivých strojích a více či méně zorganizovaná změť měděné kabeláže.
Zásadním problémem takovéhoto "řešení" je nejen nákladná správa a údržba, ale především nízká spolehlivost. Výpadek serveru o víkendu je často vyřešen až během pondělka a nedej bože, když k nějakému významnějšímu selhání dojde v průběhu týdne. Ztráty způsobené nefunkčním účetním systémem, mailserverem či dokonce webovými servery mohou být i v relativně malé firmě v řádu desítek či stovek tisíc. Mailové či webové služby lze sice outsourcovat k externímu dodavateli jsou ale případy, kdy je i pro malou firmu takové řešení nevýhodné. Na trhu pochopitelně existují řešení v podobě záložních serverů (clusterové systémy Microsoftu) či high-availability (postavené například na virtualizačních technologiích), ty ale buď vyžadují duplicitu veškerého HW, nebo nepřiměřené investice do drahých serverových technologií a softwaru.
Novinkou, která by měla oslovit zejména malé a střední firmy hledající spolehlivé řešení pro své serverové zázemí, je systém X10sure. Jedná se o na první pohled jednoduchý a elegantní, leč velmi efektivní způsob, jak zajistit téměř nepřetržitý provoz firemních serverů za relativně přijatelnou cenu. Systém X10Sure je tvořen z konsolidovaných blade či rackových serverů FSC, záložního serveru (tzv. "spare"), řídícího X10Sure serveru a síťového datového úložiště SAN s obrazy operačních systémů a daty pro jednotlivé servery (případně doplněného o zálohovací páskový systém). Na rozdíl od řešení typu Microsoft Cluster, kde jsou záložní servery v poměru 1 : 1, X10Sure používá systém n : 1 pro víceméně libovolný počet serverů stačí jeden záložní stroj (základní sada X10Sure SW s licencí pro pět serverů přijde na necelých 10 000 euro). Podle výrobce je provozní "dostupnost" tohoto řešení 99,95 % (MS Cluster udává 99,99 %), přičemž doba potřebná k aktivaci záložního serveru po selhání původního stroje jsou cca 2-3 minuty. Systém X10Sure má pochopitelně i jisté nevýhody: vyžaduje kompletně nové serverové vybavení železem FSC, spolu se SAN řešením FibreCAT SX80. Přičemž všechny stroje v systému by měly být víceméně identické. Obrovskou výhodou je velmi intuitivní grafické rozhraní pro konfiguraci X10Sure i FibreCAT SX80 úložiště měli jsme možnost si sami vyzkoušet nastavení záložního serveru a následné nucené selhání jednoho z provozních strojů. Správu musí podle našeho názoru zvládnout i orangutan po lobotomii a naší jedinou výtkou tak vlastně je, že jako IT správci bychom se s X10Sure a FibreCAT SX80 v práci asi dost nudili.