Datová centra procházejí revolučními změnami

co jste zde mohli spatřit již před deseti lety čtvercové bílé dlaždice na zvýšené podlaze, jasné fluorescenční ba...


co jste zde mohli spatřit již před deseti lety čtvercové bílé dlaždice na
zvýšené podlaze, jasné fluorescenční barvy, malé červené požární hlásiče, řady
jemně bzučících počítačových zařízení a klimatizační systémy. Tato známá
scenérie ale maskuje některé velké změny ve způsobu budování datových center
dneška.
Velmi hustě uspořádané stojany se servery, posun k
distribuovanému a virtuálnímu zpracovávání, potřeba okamžitých reakcí na poruchy
i nové požadavky na IP telefonické a hlasové služby to všechno jsou zásadní
změny, ke kterým dochází v datových centrech, nad i pod jejich zvýšenou
podlahou. Uvedený vývoj nutí organizace přehodnocovat základní uspořádání těchto
zařízení.

Silnější chlazení
Snad největší výzvou pro dnešní datová centra je,
jak uchovávat jejich místnosti a v nich umístěné komponenty dostatečně chladné.
Návrháři zařízení dříve používali snadné pravidlo typu: Pokud má mít místnost X
tisíc stop čtverečních, je zapotřebí Y tisíc tun klimatizace. Nebo návrháři
spoléhali na typové štítky zařízení, které uváděly špičkovou spotřebu energie,
založenou nikoliv na požadavcích na chlazení, ale na požadavcích na bezpečnost.
Tyto jednoduché přístupy však již dnes moc nefungují. Pravděpodobně by vedly k
nákladnému přechlazování center, a to dokonce i přesto, že v některých malých
oblastech například uvnitř stojanů se servery typu blade by teplota rostla. Ron
Hughes, prezident California Data Center Design Group, tvrdí, že typické datové
centrum v roce 2003 spotřebovalo 40 W energie na čtvereční stopu (cca desetina
čtverečního metru) a každý použitý stojan se servery spotřeboval 2 kW. Loni už
navrhoval zařízení, která měla spotřebovávat průměrně 120 W na čtvereční stopu a
každý stojan 4 až 5 kW.
"Když se podíváte na poslední předpovědi od společností
HP, Sun, IBM, Dell a dalších, zjistíte, že stojany budou patrně potřebovat 15 až
25 kW pro servery typu blade," říká Hughes. "Celkový trend směřuje k menším
půdorysům, zvýšené kapacitě, vyšším požadavkům na spotřebu energií i na
chlazení. Viděl jsem servery typu blade o příkonu 30 kW na stojan, a to je
značně přes 500 W na čtvereční stopu," dodává.
Klíčovou záležitostí na těchto
úrovních není samotné chlazení, ale umožnitelné chlazení. Hughes říká, že při 40
W na čtvereční stopu stojí vybudování jedné čtvereční stopy datového centra 400
dolarů, neboli jedno zařízení o ploše 50 000 čtverečních stop stojí 20 milionů
dolarů. Ale při 500 W na jednu čtvereční stopu což podle Hughese nastane do roku
2009, tedy ještě v době doby životnosti jakéhokoliv datového centra budovaného
dnes dramaticky vzrostou nároky na jednotky klimatizace, nepřerušitelného
elektrického napájení (UPS), napájecí generátory a související systémy.
"Stavební náklady se zvýší na 5 000 dolarů za čtvereční stopu a stejné datové
centrum pohltí rozpočet ve výši 250 milionů dolarů," dodává.

Při výpadku
Nároky na chlazení se odrážejí i v náročnější přípravě na situace, kdy se datové
centrum přepne na nouzové napájení ze záložních zdrojů. Jednotky UPS se zapnou
okamžitě po výpadku napájení, takže nedojde k žádnému přerušení přívodu
elektrické energie k počítačům. Často ale dochází k časovému zpoždění o 15 až 60
sekund při restartu chladicích jednotek. To v minulosti nepředstavovalo problém,
ale u některých novějších zařízení mohou teploty rychle vzrůstat. "Teplota v
datovém centru, které průměrně spotřebovává 40 W na jednu čtvereční stopu, při
vypnutí chlazení vzroste o 25 ? během 10 minut," říká Bob Sullivan, vedoucí
konzultant v The Uptime Institute. "Ale u míst, kde je spotřeba energie 300 W na
jednu čtvereční stopu, může dojít k tomuto nárůstu teploty i za méně než jednu
minutu," vysvětluje. Řešením bude podle Sullivana nepřerušitelné chlazení, které
pracuje stejným způsobem jako nepřerušitelné elektrické napájení. "To by
zahrnovalo instalaci vzduchových ventilátorů, případně systému čerpajících
chlazenou vodu na UPS," říká.

Rozložení center
Mnoho společností má dnes jen
jedno velké datové centrum, jiné však dvě či více v závislosti na umístění
uživatelů. Využívání levných tmavých vláken (tedy optických vláken operátorů
dosud neosazených aktivními prvky) a nový virtualizační software umožňují mnohem
pružnější, dynamičtější a uživatelsky transparentní rozložení pracovišť.
Například americká Federal National Mortgage Association (Fannie Mae) má dvě
datová centra, z nichž jedno je určeno k tomu, aby bylo převážně rezervním
pracovištěm pro nepředvídané okolnosti. Přitom buduje nové datové středisko,
které by nahradilo stávající rezervní centrum. "Nakonec budou obě centra tvořit
koprodukční prostředí," říká Stan Lofton, šéf pro systémy Wintel Fannie Mae.
"Máme dnes jen málo aplikací, takže uvažujeme o produkci na dvou pracovištích,
která by byla stále v provozu; kdyby jedno pracoviště vypadlo, pro uživatele by
to nemělo žádné důsledky," říká Lofton. "Již nějaký čas sledujeme, že se stále
více aplikací vydává tímto směrem."
Tento přístup pomáhá zabránit existenci
jediného bodu, jehož porucha by způsobila kolaps celého systému. "Současně
urychluje a usnadňuje nápravu případných selhání," říká Joshua Aaron, prezident
společnosti Business Technology Partners. "A tím, že nevyužíváte všechny
nemovitosti konsolidované na jednom místě, můžete vyjednávat lepší smlouvy s
jejich vlastníky."
Tento přístup vede podle Sullivana některé společnosti k
tomu, že si zajišťují obnovu po katastrofě vlastními silami, místo aby využívaly
služeb jiné společnosti. "Lze vidět, že tato zařízení pro odstraňování poruch
rovněž slouží pro vývoj, testování a koprodukci," dodává. "Koprodukční datová
centra s sebou přinášejí požadavek na nepřetržitou dostupnost," uvádí Terry
Rodgers, manažer provozních zařízení ve Fannie Mae. "Stále častěji nám uživatelé
říkají, že nemohou čekat několik hodin nebo dokonce ani několik minut, než se
jejich systémy přepnou na záložní pracoviště, pokud je hlavní pracoviště
ohroženo požárem nebo jinou pohromou. Řešení výpadků musí být okamžité, a to je
záležitost obojího softwaru i hardwaru," říká Rodgers.

Dvojnásobná redundance
Nepřetržitá dostupnost vyžaduje datové centrum typu Tier IV jak je definováno od
The Uptime Institute. Tier IV vyžaduje dva nezávislé elektrické rozvodné
systémy, a to v celé šíři až po duální napájecí kabely do počítačového hardwaru.
"Nové datové centrum Fannie Mae bude vybudováno na základě specifikací Tier IV a
bude nabízet zálohování v reálném čase," říká Rodgers.
Společnost Visa má v USA
dvě datová centra o ploše více než 50 000 čtverečních stop po jednom na každém
pobřeží. Kterékoliv z nich může okamžitě zálohovat druhé. Každé centrum je
označeno jako N+1, což znamená, že každý systém s n komponentami má minimálně
jednu rezervu. Pokud například datové centrum používá šest modulů UPS, musí být
podle principu N+1 k dispozici ještě sedmé.
Během jednoho roku se Visa přesune k
architektuře 2(N+1), ve které je systém úplně duplikován. Ve výše uvedeném
příkladu by datové centrum mělo dva aktivní systémy UPS, z nichž každý by byl
vybaven samostatnými kabely k zařízení a každý by měl redundanci N+1. "Před
deseti lety umožňoval systém N+1 překonat výpadek komponenty," uvádí Richard
Knight, hlavní viceprezident pro provoz společnosti Visa. "Nyní se technologie
mění, vše je vybaveno duálním napájením a požadovaný design je 2(N+1). Vzniká
tak systém s duálními systémy i s duálními komponentami." "Kromě nabídky
maximálních úrovní překonávání výpadků nabízí 2(N+1) i potřebnou flexibilitu,
protože celý systém lze vyřadit kvůli údržbě," říká Jerry Corbin, viceprezident
pro centrální systémy společnosti Visa. "Rovněž to ale velmi zvýší komplexnost
řízení," dodává.

Zajištění komunikace
Speciální požadavky na datová centra vznikají i v důsledku budování sítí pro
ukládání dat SAN. "Sítě SAN jsou zpravidla připojeny k přepínačům typu Fibre
Channel, ačkoliv lze zvolit i IP SCSI," vysvětluje Aaron. A dodává: "Přepínače
typu Fibre Channel vyžadují svou vlastní infrastrukturu a musejí být naplánovány
již ve fázi vypracování návrhu datového centra. Je třeba počítat s tím, že také
zabírají prostor ve stojanu a spotřebovávají mnoho elektrické energie." Úvahy o
potřebných způsobech komunikace výrazně ovlivňují design datového centra. "S
přechodem stále většího množství hlasových funkcí na IP musejí nyní datová
centra podporovat aplikace s klíčovým významem pro dané poslání, tedy pro přenos
hlasu," vysvětluje Aaron. "Jak zajistíte napájení IP telefonů? Jak budete
zvládat službu 911? Jak zajistíte hlasovou poštu? Jak podporujete nebo budete
podporovat unifikovaný přenos zpráv to vše byste měli vědět." "Záložní řešení
pro případ výpadku napájení služby 911 (volání při nebezpečí) zpravidla nebyla
součástí návrhu datových center, ale nyní budou," tvrdí Aaron, "stejně jako
zálohovací systémy pro napájení hlasových ústředen nebo IP telefonů," dodává.

Sjednocené řízení
IP sítě s sebou ovšem nesou nejen nové požadavky, ale také
mnohá zjednodušení. Datová centra začínají využívat senzory pro monitorování
okolí připojené k datové síti, takže manažeři provozních zařízení a manažeři IT
mají stejný pohled na zdraví všech systémů. Výrobci používají společné standardy
pro výměnu dat a síťové protokoly, které jim pomáhají spojovat svět provozních
zařízení a svět IT. Například společnost NetBotz prodává bezdrátová
adresovatelná monitorovací zařízení, která mohou být doplněna bezpečnostními
kamerami, mikrofony a senzory vlhkosti, teploty a proudění vzduchu. Údaje z nich
lze číst na dálku nebo je možné nechat odesílat výstražné zprávy e-mailem.
"Náklady, velikost a složitost těchto druhů zařízení bude klesat," říká Aaron.
"Navíc jsou již nyní integrována do sítě, takže je můžete spatřit napříč WAN i
na vzdáleném místě," dodává.


Chytré chlazení
Oblast chlazení datových center prochází v poslední době mnohými změnami. Jejich
prostřednictvím výrobci reagují na rostoucí tepelné vyzařování moderních vysoce
integrovaných serverů. Jedním z významných hráčů na tomto poli je i společnost
HP. "Starý přístup k chlazení spočíval v udržování konstantní teploty v
místnosti, což se značně podobalo situaci v hledišti divadla," říká Chandrakant
Patel, přední technolog v HP Laboratories. "Ale nyní datová centra začínají
vypadat jako Carnegie Hall se 100 osobami na jednom sedadle." U přístupu, který
HP označuje jako chytré chlazení, jsou všude v datovém centru rozmístěny
teplotní senzory. 6 až 8 se jich nachází také v každém serverovém stojanu. HP má
dokonce roboty s instalovanými senzory, které se pohybují a pátrají po
nepředpokládaných místech s vyšší teplotou. Senzory vysílají data přes síť do
analytického a řídícího softwaru, který dynamicky modeluje datové centrum na
základě předem nastavených požadavků a principů termodynamiky. Systém využívá
výsledků modelování ke směrování větráků tak, aby chladný vzduch byl směrován
tam, kde je ho zapotřebí. Řídící software může také změnit rozmístění pracovních
zařízení v rámci datového centra nebo v rámci celé sítě datových center. HP
tvrdí, že chytré chlazení sníží náklady na energii pro chlazení o 25 %. Podle
Patela HP v současné době nabízí profesionální služby při navrhování datových
center a plánuje prodej hardwarových komponent pro systémy chytrého chlazení v
rámci partnerských vztahů s dodavateli hardwaru.

Jak zchladit datové centrum
Problémy s chlazením lze řešit řadou způsobů. Některé technologie jsou stále ve
vývoji, jiné jsou již běžně k dispozici: n Směrově řízené chlazení: Spíše než
udržovat určitou nízkou teplotu v celém datovém centru nebo jak je to dnes běžné
používat přístup založený na existenci chodeb mezi řadami zařízení, přecházejí
návrháři datových center k vysoce směrovanému přídavnému chlazení. To může být
realizováno například chladícími jednotkami používajícími jako média vody nebo
speciálních chladiv, připojenými k jednotlivým stojanům, skříním nebo
komponentám. n Vodou chlazené procesory: Jde o krok zpět k éře mainframů.
Většina výrobců počítačů tyto technologie sleduje, ale dosud neoznámila žádný
produkt tohoto druhu. "Pokud se podívám z perspektivy tří až pěti let, stále
bych navrhoval vzduchový systém ve zvýšené podlaze, který je dnes běžný, ale
zaváděl bych současně i systém s chlazenou vodou, takže byste mohli později
přistoupit ke změně, aniž byste museli přebudovávat své centrum," říká Terry
Rodgers, manažer provozních zařízení ve Fannie Mae ve Washingtonu. "To
samozřejmě dává smysl u velkých datových center," dodává Ron Hughes, prezident
California Data Center Design Group. n Rozložení horkých zařízení: Některé
společnosti jednoduše zcela nezaplňují své serverové stojany a na podlaze je
umísťují tak, aby mezi nimi byly mezery. V některých případech se jedná o řešení
s nízkými náklady, ale může to být nepraktické v těsném prostoru a v drahé
budově. n Chytřejší plánování kapacity a chytřejší určování chladící kapacity:
The American Society of Heating, Refrigerating and Air-Conditioning Engineers
publikovala loni doporučení, podle kterých by výrobci serverů mohli uvádět
informace o uvolňování tepla a požadavky na větrání pro minimální, typické a
úplné konfigurace svých zařízení. "Tyto takzvané teplotní zprávy by mohly pomoci
návrhářům datových center vyhnout se horkým místům stejně jako nadměrné kapacitě
chlazení celkově," říká Don Beaty, prezident DLB Associates Consulting Engineers
PC.

Čtyři trendy v nových datových centrech
1. Podpora mimořádně hustě zaplněných serverových stojanů.
2. Posun k distribuovanému a virtuálnímu zpracovávání.
3. Požadavek okamžité reakce na výpadek.
4. Přesun k IP telefonii a k hlasovým funkcím na IP.









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.