Otázka 64 bitů nabývá na významu

V současné době už nejsou 64bitové procesory žádnou senzací či ojedinělým technologickým výstřelkem a pozornost ...


V současné době už nejsou 64bitové procesory žádnou senzací či ojedinělým
technologickým výstřelkem a pozornost se začíná obracet spíše směrem k
možnostem jejich smysluplného využití. Oblastí, kde je lze s úspěchem nasadit,
není málo, typickým příkladem mohou být systémy pro vědecké či výzkumné
výpočty. Na významu nabývají především otázky spojené s migrací a dostupností
odpovídajících aplikací.
V dávných dobách se na Zemi vyskytovaly dinosauří mikropočítače, jejichž
"mozky" dokázaly zpracovávat pouze 8 bitů dat současně a jejich paměťová
kapacita byla ubohých 64 kilobajtů. Pak však společnost Intel udělala krok
kupředu s čipem 8086, ve kterém zdvojnásobila počet instrukcí, jež mohl počítač
"přechroustat" najednou, a rozšířila objem paměti, k níž mohl program
přistupovat, až na celý 1 megabajt. Rozhodnout se pro upgrade tehdy
nevyžadovalo příliš dlouhé přemýšlení.
Právě nyní se nacházíme v dalším historickém okamžiku. Společnosti Intel, AMD a
Apple Computer (IBM) představily 64bitové procesory, které mají "pohánět"
příští generaci výkonných výpočetních systémů. Mezi první uživatele, kteří
vzhlížejí k novým možnostem, patří například vědci provádějící složité výpočty
ti se musejí rozhodnout, které z procesorů nabídnou nejlepší poměr cena/výkon,
aby splnily jejich požadavky. (Dlouhou dobu jsou už samozřejmě využívány
64bitové počítače založené na architektuře RISC jedná se však o výkonné,
nicméně velmi nákladné proprietární systémy, které vzhledem ke své ceně nemohou
najít uplatnění v širším měřítku.)
Mezi nejnovější 64bitové čipy v současnosti patří Itanium 2 firmy Intel,
Opteron a Athlon 64 od AMD nebo PowerPC G5, který je založený na designu IBM a
využíván v počítačích PowerMac G5 společnosti Apple. Teoreticky nabízejí
všechny tři platformy podstatný nárůst hrubého výkonu oproti dnes běžným
32bitovým procesorům.
V praxi však skutečný výkon závisí na mnoha faktorech patří mezi ně kapacita
paměti, kterou je uživatel (firma) ochoten nakoupit, či optimalizace aplikací,
aby byly schopny využít výhod toho kterého procesoru. Navíc jestliže 64bitové
systémy tvoří součást clusteru (tj. jeho uzly), bude celkový výkon do značné
míry ovlivněn efektivitou a výkonem propojovacího (clusterového) softwaru či
switchů v clusteru.

Adresace paměti
Hlavní výhodou 64bitového systému tak zůstává skutečnost, že lze do operační
paměti vkládat více informací, což se projeví v rychlejších výsledcích.
32bitový systém je schopen přistupovat (adresovat) pouze ke 4 gigabajtům
paměti. Existují sice metody, jak se tomuto omezení vyhnout, ale taková řešení
jsou obvykle dosti drahá a komplikovaná. Například v mnoha běžných biologických
aplikacích kde jsou prohledávány obrovské databáze biologických dat může být
limit 4 GB skutečnou překážkou pro zajištění přijatelného výkonu, nemluvě o
jeho dalším zvyšování např. kvůli růstu objemu dat v průběhu doby.
Práce s rozsáhlou databází nebo jinou náročnou aplikací pak vyžaduje použití
virtuální paměti, pro kterou je vyhrazena část prostoru na pevném disku, aby
zde mohla být dočasně ukládána další data využívaná takovým programem. Avšak
přístup a manipulace s daty uloženými ve virtuální paměti na disku je zhruba
40krát pomalejší, než když jsou data uložena přímo v operační paměti (RAM).
64bitový systém tento problém zcela obchází, neboť dokáže pracovat s mnohem
větším objemem dat v paměti až se 16 terabajty. Při natažení celé databáze do
paměti mohou být kalkulace, vyhledávání i manipulace s daty vykonávány
podstatně rychleji, než když ke stejným datům aplikace přistupuje ve virtuální
paměti na pevném disku. To je jeden z nejpádnějších důvodů, proč vědci z
různých oborů obracejí pozornost k 64bitovým systémům. "Očekáváme, že díky
možnosti adresovat mnohem větší objem paměti i nárůstu výkonu při operacích s
plovoucí čárkou, uspokojí systémy založené na Itaniu 2 naše požadavky při
zpracování rozsáhlých souborů dat," říká Gunaretnam Rajagopal, ředitel
organizace Singapore Bio-Informatics Institute.

Problém kompatibility
Kromě podpory vyšší kapacity paměti, která má v oblasti zpracování dat z
rozsáhlých databází velký význam, hrají při volbě platformy 64bitových systémů
roli dva další faktory kompatibilita a cena.
Jádrem problému s kompatibilitou je zejména to, zda nárůst výkonu realizovaný
při běhu stávajících (32bitových) aplikací na 64bitových procesorech odpovídá
vyšším nákladům spojeným s nasazením 64bitových systémů (lze totiž
předpokládat, že k portování všech aplikací používaných ve firmě na 64bitové
verze bude docházet postupně). Právě v tomto směru se přístupy dvou hlavních
konkurentů, AMD a Intelu, výrazně liší.
Na prvních systémech založených na architektuře Itanium, které byly na trhu v
roce 2002, běžely mnohé 32bitové programy pomaleji než na tehdejších
high-endových strojích postavených na Pentiu přičemž systémy s Itaniem byly
výrazně dražší.
Ne příliš dobré první výsledky, v širokém rozsahu uváděné v oborových médiích,
zanechaly v mnohých IT manažerech nedůvěru (i když v průběhu doby už ve většině
případů přestala být opodstatněná). "Uvědomili jsme si, že Itanium je nová
architektura, která přinese zajímavé výhody v budoucnu," říká zástupce
nejmenované biotechnologické společnosti z Cambridge. "Nicméně vysoké náklady a
diskutabilní výkon při provozu současných aplikací nás přinutily s jejím
nasazením počkat." Intel tento problém vyřešil technologií pro softwarovou
emulaci, pod nímž běží 32bitové aplikace se srovnatelnou rychlostí jako na
systémech s Pentiem 4.
Na druhé straně procesory Opteron a Athlon 64 vyráběné společností AMD dokáží
pracovat se 32 i 64bitovými aplikacemi v jejich nativním módu. Tato skutečnost
spolu s nižšími cenami počítačů s Opterony, které jsou jen o málo dražší než
high-endové systémy s Pentiem 4, přiměl mnohé organizace k tomu, aby zvážily
jejich nasazení.
"V současné době se zdá, že je pro mnohé firmy výhodné vsadit na platformu
Opteronu, jestliže chtějí zvýšit výpočetní kapacitu například pro běžné
bioinformatické úlohy, jako je sekvenční vyhledávání BLAST atd.," tvrdí David
ONeil, nezávislý IT konzultant a bývalý síťový správce u farmaceutické
společnosti. "Systémy s Opterony dávají firmám možnost migrace na 64bitové
verze jejich aplikací, jakmile budou dostupné. Přitom tyto stroje stojí
přibližně stejně jako mnohé ze současných 32bitových serverů střední či vyšší
třídy."

Kdo je potřebuje?
Nové 64bitové systémy se budou moci velmi dobře uplatnit v nejrůznějších
vědních oborech, jako třeba v bioinformatice, v širokém rozsahu od jednotlivých
stolních počítačů, které využívají výzkumní pracovníci, až po jádro celé
výpočetní infrastruktury firmy. Z možností 64bitových procesorů zde mohou těžit
3 základní třídy aplikací:
V širokém měřítku používané vyhledávací a třídicí algoritmy, jako je BLAST,
Hidden Markov Modeling (HMM) či Smith Waterman.
Simulační a modelovací aplikace, například algoritmy pro spojování molekul nebo
chemické výpočty, stejně jako programy, které počítají energii u vazeb mezi
dvěma molekulami atd.
Aplikace, které zajišťují rozsáhlý data mining (a prohledávání), správu
znalostí a vizualizaci.
Ačkoliv všechny tyto programy mohou běžet rychleji při využití vyšší kapacity
adresovatelné paměti, ne všechny 64bitové systémy jsou vhodné pro každou
aplikaci. Výběr vhodné architektury je závislý na kombinaci více aplikací,
které na ní musejí být podporovány. Vše závisí i na tom, v jakém prostředí běží
aplikace dnes zda na samostatném serveru nebo pracovní stanici, v rámci
clusteru nebo na části výpočetních prostředků oddělení firmy.
Jako příklad lze uvést jedno z předpokládaných možných použití systémů
založených na procesorech Opteron střediskový cluster (využívaný v rámci
podnikového oddělení), u něhož se projeví výhoda kombinace vysokého výkonu a
relativně nízkých nákladů. "Takřka každá laboratoř by mohla používat vlastní
cluster, tedy dedikovaný systém," tvrdí Douglas OFlaherty, stategický
programový manažer v AMD. Podobně i Apple PowerMac G5, který je postaven na
procesoru založeném na 64bitové architektuře PowerPC společnosti IBM, nabízí
odpovídající rychlost a kapacitu paměti pro provádění výzkumných výpočtů a běh
softwaru typu BLAST nebo Smith Waterman.
Systémy s Opterony mohou stejně tak sloužit jako most mezi dnešním výzkumem a
algoritmy zítřka. Pro firmu, která provádí časté prohledávání a třídění dat s
využitím clusteru serverů s procesory Pentium nebo Xeon, mohou stroje založené
na Opteronech nabídnout srovnatelný výkon, přičemž náklady nejsou o mnoho vyšší
než při upgradu běžných IA-32 počítačů. Současně ale mohou nabídnout migrační
platformu pro dobu, kdy budou k dispozici 64bitové verze populárních programů.
To ovšem neznamená, že by systémy s procesory Itanium 2 nebyly pro takové
aplikace vhodné. Jestliže však chtějí uživatelé pouze provozovat 32bitové
aplikace s tím, že budou očekávat nebo mít možnost nasazení jejich 64bitových
protějšků teprve někdy v budoucnu, ukáže se pravděpodobně cena hardwaru s
Itaniem pro tento tržní segment jako nepřiměřená.

Investice do budoucna
Systémy postavené na procesorech Itanium 2 ale mohou vzbudit pozornost
především u institucí, které chtějí vybudovat infrastrukturu pro podporu svých
vědeckých výzkumů či kritických obchodních aplikací pro několik dalších let
nebo celé příští desetiletí.
V tomto scénáři lze platformu Itania vidět jako dlouhodobou investici. "Hodláme
využívat procesory Itanium, neboť nabízejí vysoký výkonový potenciál a do
budoucna navíc představují i příští generaci IT infrastruktury," tvrdí
Rajagopal.
"Hledáme architekturu, která nám vydrží pro příštích 3-5 let. A možná dokonce i
10 let," souhlasí s tímto pohledem Al Stutz, šéf pro oblast výkonných
výpočetních systémů v instituci Ohio Supercomputing Center. "Předpokládáme, že
architektura Intelu naše očekávání v tomto směru splní. Výpočetní výkon Itania
mohou plně využít naši výzkumní pracovníci v oblastech chemických výpočtů,
skládání proteinů či vývoje nových léků můžeme tak tyto výzkumy provádět mnohem
rychleji."
V rámci zajímavého výzkumného projektu označovaného jako TeraGrid byla
provedena standardizace distribuovaných serverových clusterů založených na
procesorech Itanium a operační platformě Linux. TeraGrid bude mít po svém
dokončení výpočetní výkon 20 teraflops (20 bilionů operací s plovoucí čárkou za
sekundu) a přibližně 1 petabajt paměťové kapacity distribuované na pěti místech.

Konkurent RISC
Itanium a Opteron (v menší míře) vzbuzují pozornost i jako potenciální
substituty vysoce výkonných, nicméně proprietárních systémů. Někteří z IT
expertů například věří, že Itanium v mnoha případech nahradí dosavadní
high-endové architektury v serverech firem jako Hewlett-Packard či Sun
Microsystems. Ty používají čipy založené na 64bitové architektuře RISC (Reduced
Instruction Set Computer) patří mezi ně procesory UltraSparc firmy Sun a Alpha
od HP. Už dnes je známo, že od roku 2006 bude HP používat ve svých 64bitových
serverech právě Itanium a ukončí produkci strojů s procesory Alpha. V případě
procesorů UltraSparc jde spíše o spekulace.
Riscové servery jsou dnes v širokém měřítku využívány pro simulační programy,
stejně jako pro modelování či data mining v extrémně rozsáhlých souborech dat.
Protože nové 64bitové procesory podporují více než 4 GB paměti, jsou schopny do
jisté míry konkurovat systémům založeným na platformě RISC. Riscové pracovní
stanice dosud dominovaly v oblasti vizualizace dat. Takové stroje bývají
obvykle dosti drahé, jejich cena často přesáhne hranici 10 tisíc dolarů. Apple
PowerMac G5 by zde zřejmě mohl být méně nákladnou alternativou a nahradit
některé z těchto high-endových systémů.
Nicméně i při všech výhodách nových 64bitových čipů některé z firem ještě
nejspíše nějaký čas zůstanou u svého staršího riscového hardwaru. Kupříkladu
když se společnost Celera Systems v loňském roce rozhodla pro nahrazení svých
riscových Alpha serverů, přesedlala na jinou platformu RISC IBM p690 Regatta.
Celera začala poprvé uvažovat o upgradu přibližně přede dvěma lety. "Nechtěli
jsme však žádnou razantní změnu," říká John Reynders, viceprezident pro
informatiku. "Vše, co jsme dosud používali, bylo spolehlivé. Hledali jsme
flexibilitu, ale nechtěli jsme kombinovat více platforem. Proto jsme zvolili
takovou, kterou jsme mohli přizpůsobit, aby podporovala aplikace, jež jsme
využívali."

Klíče k adopci
Mnozí z IT manažerů zatím setrvávají u 32bitové architektury, a to jak s
ohledem na ranou fázi vývoje 64bitových procesorů Intelu či AMD, tak vzhledem k
nedostatku softwaru přizpůsobeného k využití jejich možností. Ovšem přesto už
dnes existuje mnoho oblastí, kde je nasazení systémů založených na platformách
Itanium, Opteron nebo PowerPC G5 smysluplné. První firmy, které je začaly
využívat, spolupracují s dodavateli softwaru a vývojářskou komunitou, aby mohly
být příslušné aplikace optimalizovány pro dosažení maximálního výkonu.
Co se týká hardwaru, většina předních hráčů na trhu (IBM, Dell, HP atd.) nabízí
i produkty založené na Itaniu a Opteronu. Firmy, které mají zkušenosti v
různých vědeckých oborech i oblastech vysoce výkonných výpočetních systémů, pak
nabízejí další 64bitové systémy (např. Linux Networx nabízí hardwarové i
softwarové produkty pro realizaci clusterů).
Druhou, neméně důležitou stranu pomyslné rovnice tvoří softwarové prostředky.
Je třeba navrhovat aplikace, které dokáží těžit z výhod rychlého hardwaru.
Například skupiny jako Gelato.org se specializují na zlepšování vývoje
optimalizovaných linuxových aplikací určených pro platformu Itanium. V září
loňského roku upgradovala instituce Pacific Northwest National Labs (člen
skupiny Gelato) své výpočetní centrum, a to nyní tvoří linuxový cluster se 2
tisíci procesory Itanium, jenž je schopen dosáhnout výkonu 11,8 teraflops a
patří tak mezi 10 nejvýkonnějších superpočítačů současnosti.
Poradenská firma BioTeam optimalizovala své bioinformatické aplikace, aby mohly
využít možností technologie Velocity Engine, která je součástí procesorů G5.
Velocity Engine umožňuje paralelní vykonávání až 16 operací v jediném taktu.
Jeho optimalizační proces zahrnuje vyhledávání částí algoritmu, jako jsou
opakující se smyčky, které mohou být prováděny paralelně (namísto sekvenčního
vykonávání).
Takové snahy vývojářů i hardwarových dodavatelů dávají šanci na urychlení
adopce 64bitových systémů v oblastech vědních, ale i mnoha dalších oborů.
Pravdou však i nadále zůstává, že většina firem bude zřejmě vyčkávat do doby,
kdy budou u jejich specifických aplikací jasně viditelné výhody v poměru ceny a
výkonu. Teprve pak lze očekávat nasazování 64bitových platforem v širším
měřítku.

Procesory a jejich výkon
Za dva hlavní faktory, které určují hrubý výkon CPU (Central Processing Unit)
počítače, lze považovat bitovou šířku a pracovní frekvenci procesoru.
Bitová šířka: Množství dat (bitů), které může být zpracováno během jedné
operace. Například procesory Pentium firmy Intel podporují 32bitové operace,
zatímco Itanium podporuje 64bitové operace. Operace prováděné s daty jsou
relativně jednoduché zahrnují sčítání, odčítání nebo vyvolávání dat z paměti.
(Lze také říci, že 32bitový procesor má 32bitové datové registry nebo že
používá 32bitovou adresaci paměti.)
Taktovací frekvence procesoru: Měřítko rychlosti, s níž CPU vykonává operace.
Moderní high-endové procesory nabízejí pracovní frekvence vyšší než 2 GHz (u
32bitových procesorů), respektive 1 GHz (u 64bitových procesorů).
Teoreticky by tak měl být hrubý výkon 1GHz 32bitového procesoru obecně
dvojnásobný v porovnání s 500MHz 32bitovým čipem. Nicméně do hry vstupují i
další faktory související s jeho architekturou, jako je typ a kapacita
vyrovnávací paměti či šířka pásma u propojení mezi CPU a pamětí, a ty celkový
výkon systému dosti výrazně ovlivňují (a podobné srovnání tak vůbec nedává
smysl).









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.