Kam směřuje high performance computing?

23. 12. 2008

Sdílet

Firma SGI uspořádala v listopadu seminář pro uživatele z řad akademické a vědecké komunity. Hlavním přednášejícím byl CTO SGI Eng Lim Goh (na fotografii), který nastínil trendy a výzvy současného high performance computingu. Při této příležitosti jsme s ním a s ředitelem pro východní Evropu Michalem Klimešem pohovořili na toto téma.

Firma SGI uspořádala v listopadu seminář pro uživatele z řad akademické a vědecké komunity. Hlavním přednášejícím byl CTO SGI Eng Lim Goh (na fotografii), který nastínil trendy a výzvy současného high performance computingu. Při této příležitosti jsme s ním a s ředitelem pro východní Evropu Michalem Klimešem pohovořili na toto téma.

Jakými zásadními proměnami dnes prochází společnosti zaměřené na High-performance computing jako je SGI a co mohou nabídnout firemnímu prostředí?

Zásadními proměnami prochází spíše celý průmysl. Dříve bylo typické pro nejvýkonnější systémy využití proprietárních technologií. Dnes je nejčastější využívat standardních CPU kombinovaných především s běžnými operačními systémy, nejčastěji Linux. Tyto technologie činí velký výpočetní výkon dostupný mnohem širší skupině uživatelů. Vlastně přináší virtuální realitu v novém pojetí, tedy každý produkt je předem vytvořen a zkonstruován virtuálně, jeho funkce nebo chování ověřeno při zátěži nebo kritických situacích opět ve virtuálním prostředí generovaným výkonným počítačem a pak je teprve vyroben. Dříve tak časté testy na prototypech nebo skutečných výrobcích již slouží jen k verifikaci parametrů a nikoliv jako běžný prostředek vývoje.

Jakým způsobem vnímáte platnost Mooreova zákona a jak podle vás poroste výkon počítačů v následujících letech?

Po mnoho let byl základní výpočetní jednotkou procesor v dnešní terminologii můžeme říci s jedním jádrem. Nárůst výpočetního výkonu byl dlouho spojen s nárůstem kmitočtu CPU a v podstatě dlouhé roky sledoval Mooreův zákon. Nárůst kmitočtu přinášel nárůst ztrátového tepla a tento trend byl kompenzován nižšími hodnotami napájení CPU, které bylo umožněno technologickým vývojem výroby čipů. Kolem hodnoty 3 GHz dosáhl vývoj technologických bariér spojených se základní fyzikou. Izolační bariéry na procesoru jsou tak malé, že již nedostatečně izolují proti průniku elektronu. A proto přišly dvou a posléze vícejaderné procesory.

To je velice zásadní změna, kumulovaný teoretický výpočetní výkon lze nadále navyšovat množstvím jader, ale současně zásadně narůstá komunikace mezi všemi těmito jádry. Tato komunikace se stává zásadní bariérou pro nárůst výkonu pro skutečné aplikace. SW průmysl umí využívat nových multicore technologií prozatím jen omezeně. Výpočetní výkon tedy nabízíme velký a největší část našeho výzkumu orientujeme jak tento výkon teoretický učinit co nejefektivněji využitelný pro aplikace ve výzkumu i průmyslu.

Které komponenty vidíte jako nejslabší články z hlediska výkonnosti celých systémů, případně co jsou brzdící faktory?

Nejužším hrdlem současných systémů je infrastruktura, která zajišťuje komunikaci mezi procesory a pamětí vzdálených blade-ů, a to jak u klástrů (Infiniband, ethernet, aj.) tak i u SMP systémů s většinou proprietárním propojením. Podle způsobu realizace zanáší tato část do systémů velké latence, tedy zpoždění, které může významně snížit efektivitu využití dostupného výkonu systému.

Druhým a v současné chvíli asi nejslabším článkem jsou dnes programovací modely. Mnohé aplikace jsou postupně budovány po mnoho let a není snadné je v krátkosti přizpůsobit novým vícejaderným systémům. Zde bude nutný podstatně rychlejší pokrok.

Co nás podle vás čeká v blízké budoucnosti za změny v HPC architektuře?

Vědomi si nedostatků zmíněných výše je asi vhodné vysvětlit, kde vidíme řešení. V oblasti systémového návrhu počítačů pracujeme na dvou směrech vývoje. Jeden můžeme nazvat „integrovaným clusterem“, kde některé prvky komunikace klasického clusteru přenášíme na blady a na sběrnici na kterou jsou napojeny. To přináší velkou výhodu v jednoduchosti implementace, velké zvýšení spolehlivosti a řeší řadu otázek jako je efektivní napájení a chlazení. Uvědomme si, že systém o 8192 jádrech bude asi v šestnácti stojanech a k jeho propojení klasickým způsobem bude třeba téměř 3000 kabelů. My si v našem řešení ICE vystačíme s 320.

Druhým směrem vývoje je projekt Ultraviolet, který je další generací osvědčené NUMA technologie a přinese systémy s globálně sdílenou pamětí s procesory X86-64. A znovu mluvíme o tisících procesorech. Výsledkem vývoje je komunikační procesor, který zásadně zefektivní interní komunikaci v celém výpočetním systému.

Jaké nejvýznamnější trendy pro následující roky vidíte v oblasti technického a vědeckého computingu?

Zřetelná je snaha dosáhnout výkonu jednoho PetaFlops standardním systémem. Další jasný trend bude rozvoj clusterů i systémů se sdílenou pamětí. Na právě proběhlé superpočítačové výstavě ISC v Austinu jsme například oznámili koncept masivně paralelního systému Molekula, který umožní instalaci až 10 000 jader v jednom stojanu.

Jak se podle vás budou vyvíjet v následujících desetiletích možnosti počítačů z hlediska přibližování se schopnostem lidského vnímání?

bitcoin_skoleni

Nikdy jsem nebyl zastáncem počítačů, které budou mít inteligenci, ale jsem jednoznačně přesvědčen, že počítače budou tak rychlé, že budou čím dál schopnější plnit i nejsložitější zadání v rychlostech, které nebudou brzdit lidské myšlení. V technických mechanických vědách je tento stav velmi blízko, v oblasti například strukturální biologie je další nárůst výkonu ještě velmi nezbytný. Velké výpočetní výkony přinesou virtuální realitu do veškerého vývoje. Velké změny v práci s tímto světem neočekáváme. Nakonec lidské „nástroje“ zrak a hmat se také nemění. Budeme schopnější rychleji přemýšlet, protože své myšlenky a teze budeme schopni rychleji ověřovat.