Vědecké experimenty vyžadují nové superpočítače

Fyzikální ústav Akademie věd ČR se na poli IT může pochlubit nejedním prvenstvím. Podle dostupných informací se pr


Fyzikální ústav Akademie věd ČR se na poli IT může pochlubit nejedním
prvenstvím. Podle dostupných informací se právě zde na počátku 90. let objevil
první webový server v ČR (respektive v Československu) vůbec. Linky tehdy ještě
nebyly příliš spolehlivé, na stroj od HP byl tedy software nainstalován už v
CERNu a pak počítač zamířil do Prahy. Spolupráce s CERNem má tedy relativně
dlouhou tradici.
Současné susperpočítačové zařízení pro řešení gridových projektů funguje ve
Fyzikálním ústavu AV ČR i přes slavnostní otevření na začátku listopadu de
facto už od léta. Na jeho počátku stál cluster Goliáš (základem jsou
dvouprocesorové HP servery s Pentiem III 1,13 GHz), pořízený v roce 2002, na
kterém došlo k prvním testům distribuovaných výpočtů. Letos byl rozšířen o
další dvouprocesorové HP servery s Xeonem 2,8, respektive 3,06 GHz a Opteronem
1,6 GHz. Výpočetní kapacita je samozřejmě kupována teprve ve chvíli, kdy je
skutečně možnost ji využít mj. i proto, že příslušné systémy mezitím obvykle
zlevní.
Na serverech je nyní provozován operační systém Linux ve variantě Red Hat 7.3.
Gridový middleware totiž v tuto chvíli vyžaduje starší verzi tohoto OS;
výhledově se však plánuje přesunout jednotlivé uzly na novější Linux s jádrem
2.6 konkrétně půjde (především z licenčních důvodů) o tzv. Scientific Linux,
který vychází z verze Enterprise 3 opět od Red Hatu.
Regionální výpočetní centrum pro fyziku částic dnes využívá clusteru s více jak
160 procesory a 40 TB diskové paměti. Nákup nového hardwaru vyšel jen letos na
zhruba 6 milionů Kč; největší náklady však nepředstavuje hardware jako takový,
ale spíše doprovodné práce a zařízení úprava nové serverovny, agregáty,
klimatizace apod.
Podle informací, které se nám podařilo získat, není jasné, jaký je
nejvýkonnější superpočítač pracující dnes v rámci českých vědeckých institucí.
Prvenství zřejmě patří clusteru Amálka, který byl letos v dubnu uveden do
provozu na Ústavu fyziky atmosféry AV ČR. Systém v superpočítačovém centru
Fyzikálního ústavu by byl co do výkonu snad na druhém místě, není to však
zdaleka jisté. V rámci AV ČR však došlo k založení diskusní skupiny určené
právě správcům těchto systémů, což by mohlo vnést do tohoto problému více
světla. (Poznámka redakce: Cluster Amálka jsme stručně představili v CW
18/2004.)

Historie
Před zavedením gridových řešení byla všechna data uložena centrálně přímo v
CERNu a zde se také zpracovávala. Jen některé simulace se prováděly odděleně na
jiných výpočetních farmách, mezi kterými se data vesměs převážela na páskách.
Přes střediskové počítače IBM a VAX se přešlo na unixové riscové stroje, dalším
krokem byla linuxová PC. Většina specializovaného softwaru byla napsána v
jazyku Fortran.

Gridy přicházejí
S gridovými systémy se situace podstatně změnila. Zůstala linuxová PC, většina
softwaru byla přepsána do C++. Distribuovaný systém jako takový je nyní pro
uživatele transparentní grid sám se stará o to, kde jsou uložena jaká data a
kde jsou zrovna volné výpočetní zdroje. Systém také zajišťuje rychlou odezvu
pro interaktivní práci nad částí dat a dávkové úlohy pro zpracování velkých
souborů. CERN dále zůstává jako úložné centrum pro vlastní hrubá data diskutuje
se jen o kopírování těchto dat pro případ zálohy. Ve vlastním gridu budou
analyzovány pouze informace o srážkách, při nichž dojde ke vzniku potenciálně
"zajímavých" částic.
V hlavních centrech (viz popis hierarchie sítě v rámečku nahoře na této
stránce) budou uložena rekonstruovaná data, v regionálních střediscích má
probíhat většina simulací a analýzy se mají provádět na všech úrovních pokud
možno vždy blízko datům.
Úzkým hrdlem současných vědeckých výpočtů už není výpočetní výkon jako takový,
ale spíše softwarová stránka věci. Částicoví fyzikové mají v tomto ohledu
výhodu většinu experimentů lze poměrně snadno rozdělit na menší podúlohy, a ty
pak zpracovat separátně. Gridové řešení bude tedy znamenat především dynamické
využívání právě dostupného výkonu a stejně řešené ukládání dat. Zkušenosti
získané při provozu gridových systémů by se však časem měly uplatnit i v
dalších vědních disciplínách, kde paralelizace může představovat větší problém
(např. biologické vědy).

Co se počítá
Pražské regionální centrum pro výzkum částic je samozřejmě propojeno s
ostatními institucemi zapojenými do projektu. Toto spojení není realizováno
pouze přes stávající "obecnou" akademickou síť Cesnet/Géant, ale přímo
vyhrazenými linkami Prahu spojuje se Ženevou přímé optické spojení CzechLigth.
Linka o rychlosti 1 Gb/s vede přes Amsterodam.
Do pražského centra už v tuto chvíli posílají své výpočetní požadavky členové
řešící projekty Atlas a Alice (skupiny pracující v CERNu na stejnojmenných
experimentech; předpokládá se, že jen v rámci projektu Atlas se přitom zpracuje
1 PB naměřených dat ročně).
Ve stávající fázi experimentů probíhá především testování stability vlastního
softwarového řešení, analýza rozdělování úloh, zkoušky gridového middlewaru a
propustnosti sítí, dále také testy připravenosti jednotlivých center a příprava
souborů dat pro vlastní analýzu.
Pražské superpočítačové centrum se neomezuje pouze na výzkumy řízené z CERNu;
částicoví fyzikové spolupracují také s Fermilabem, což je instituce provozující
jiný urychlovač částic nedaleko Chicaga. Pro americké kolegy provádějí ve
Fyzikálním ústavu AV ČR některé simulace namísto přímé finanční úhrady platí
svůj příspěvek k účasti v projektu výpočetním výkonem.

Malá pozvánka
Na závěr ještě jedna informace: všichni čtenáři, kterým se toto vydání
Computerworldu dostalo do rukou ještě ve čtvrtek/pátek, mají v sobotu 13.
listopadu od 14 h. v rámci dne otevřených dveří možnost navštívit Fyzikální
ústav AV ČR (Pod vodárenskou věží 1, Praha 8) a prohlédnout si i nově otevřené
superpočítačové centrum na vlastní oči. Další informace o regionálním
výpočetním centru pro fyziku částic lze získat také na adrese
www.particle.cz/farm.

Další velké experimenty
Urychlovač částic v CERNu není jediným experimentem vyžadujícím distribuované
zpracování obrovského množství dat. Již v roce 2002 byl zahájen další velmi
ambiciózní projekt Ligo (Laser Interferometer Gravitational-Wave Observatory)
neboli pátrání po gravitačních vlnách, které by mohly vydávat kosmické objekty.
Už nyní je v provozu také projekt SDSS (Sloan Digital Sky Survey), jehož cílem
je pořízení dosud nejobsáhlejšího digitálního katalogu, třírozměrných "map
oblohy". Počítačové zpracování by se mělo odehrávat v rámci chystané sítě známé
prozatím pod označením GriPhyN. Podrobnosti o těchto záměrech jsme přinesli v
CW 8/2003 v článku "Jak zpracovat petabajty dat".

Největší technologický projekt
Urychlovač LHC budovaný v CERNu by měl pomoci zodpovědět mnoho otázek
týkajících se struktury vesmíru, mj. také přispět k objasněním záhady skryté
(temné) hmoty a energie. Obrovské zařízení ve tvaru prstence má obvod zhruba 27
km a je umístěno 100 metrů pod zemí nedaleko Ženevy na svazích pohoří Jura. Na
výstavbu zařízení bylo zatím vyčleněno 2,5 miliardy švýcarských franků (tedy
takřka 60 miliard Kč). Projekt obřího urychlovače s sebou nese nutnost vyřešit
řadu dalších technologických otázek. Dosažení obrovských energií urychlovaných
částic má být umožněno extrémně silným magnetickým polem. Mělo by být vytvořeno
využitím supravodivosti, a ta je zase dodnes realizovatelná pouze při nízkých
teplotách. Teplota celého zařízení se má proto blížit absolutní nule.
Švýcarský urychlovač lze dnes pokládat za jeden z největších technologických
projektů vůbec; při jeho realizaci bude "mimochodem" vyřešena celá řada dalších
problémů, od zpracování dat po technologie spojené přímo s konstrukcí zařízení.
Absolutně největší urychlovač částic s obvodem okolo 85 km byl od počátku 80.
let plánován v americkém Texasu. Šlo o zařízení typu SSC (Superconducting
Super-Collider Project, supervodivý superurychlovač), které mělo podobně jako
LHC sloužit především k urychlování protonů. Celkové náklady na stavbu
urychlovače byly odhadovány na 8 miliard dolarů.
V roce 1993 byl však projekt zastaven americkým Senátem v důsledku rozpočtových
škrtů. Z plánovaných nákladů bylo už proinvestováno okolo 2 miliard, na další
přibližně 1 miliardu pak vyšlo uvedení místa do původního stavu. Politické
boje, do nichž se zapojila i celá řada vědců (nejen coby zastánců stavby řada
prosazovala naopak investice do jiných projektů), popisuje např. americký fyzik
a nositel Nobelovy ceny Steven Weinberg v knize Snění o finální teorii (v
češtině vydalo nakladatelství Hynek, Praha, 1996).
Evropského výzkumu prováděného v CERNu se od zastavení texaského projektu
účastní ve větší míře také američtí částicoví fyzikové. Nedá se však rozhodně
říci, že by zastavení

Co je co?
CERN Conseil Européen pour la Recherche Nucléaire, Evropské sdružení pro
jaderný výzkum, www.cern.ch
LHC Large Hadron Collider, velký urychlovač protonů, lhc-new-homepa
ge.web.cern.ch/lhc-new-homepage/
LCG LHC Computing Grid, distribuované výpočetní prostředí pro urychlovač,
lcg.web.cern.ch/LCG/ na evropský výzkum kladný dopad. Mezi Švýcarskem a Texasem
nedošlo k žádnému soupeření, rychlost dokončení náhle nebyla věcí prestiže.
Zřejmě i v důsledku toho bylo spuštění urychlovače v CERNu několikrát odloženo,
celkem asi o 7 let. Nyní se však všeobecně předpokládá, že termín spuštění v
roce 2007 je už konečný.









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.