Mikroprocesory kráčejí kupředu

Po více než desetiletí se výpočetní výkon mikroprocesorů zdvojnásoboval každých 18-24 měsíců. A producenti čip


Po více než desetiletí se výpočetní výkon mikroprocesorů zdvojnásoboval každých
18-24 měsíců. A producenti čipů tvrdí, že tento proces bude pokračovat
přinejmenším i v dalších deseti letech. Pak už ale zřejmě bude muset nastoupit
nějaká nová technologie, která nahradí dnešní křemíkové polovodiče.
Firmy, které vyrábějí mikroprocesory a používají je pro stavbu počítačů,
naneštěstí nemohou jednoduše pokračovat ve vyjetých kolejích Moorova zákona
donekonečna. S tím, jak se snižují rozměry křemíkových tranzistorů do pěti let
jich bude jediný čip obsahovat až miliardu stoupají náklady na návrh, výrobu a
testování čipu exponenciálním tempem. Vše navíc komplikují fyzikální zákony: V
záhadné říši označované jako "deep submicron" (což znamená, že mluvíme o čipech
využívajících tranzistory, jejichž rozměry se pohybují řádově hluboko pod
mikrometrem) se už dá těžko kontrolovat ztrátový výkon a kosmické záření
způsobuje náhodné chyby při zpracování.
"Problémy se ztrátovým výkonem zhruba za 10 let zamezí možnosti dalšího
škálování. Vylepšení přijdou spíše ze strany integrace na úrovni systému než
zdokonalování technologie tranzistorů," předpovídá Bijan Davari, technologický
viceprezident divize mikroelektroniky ve společnosti IBM. Zhruba 60 % celkového
výkonového růstu bylo donedávna výsledkem zvyšování pracovní frekvence
mikroprocesorů, které bylo mj. výsledkem zmenšování velikosti tranzistorů.
Rovnováhu přinesl vývoj výpočetních architektur, které umožňují provádět více
než jednu instrukci při každém taktu. Mikroprocesor toho může dosáhnout
predikcí průběhu programu prostřednictvím několika větví logiky programu nebo
"spekulativním" vykonáváním instrukcí tedy ještě před tím, než je potřeba.
Avšak další vývoj těchto triků se rovněž stává stále obtížnějším a dražším.

Vlákna a jádra
"Postupem času jsme se dostali od schopnosti vykonávat dvě instrukce současně
až k osmi a více," říká James Hoe, profesor elektroa počítačového inženýrství
na Carnegie Mellon University v Pittsburghu. "Nyní se však blížíme k limitu,
neboť taková architektura už není dále škálovatelná." Hoe dodává, že vývojoví
pracovníci, kteří navrhují nové mikroprocesory, se tak musejí stále více
spoléhat na nová ambiciózní schémata pro hledání "paralelismu" v programech či
proudech úloh. Mezi ně patří následující:
Multithreading: Rozdělení programu do několika proudů instrukcí či vláken
(threadů), které jsou zpracovávány současně. Každé vlákno může pracovat
například datovým paketem nebo transakcí.
Simultaneous multithreading: Technika, která spočívá v tom, že jeden fyzický
procesor se vůči softwaru tváří jako dva procesory, takže mohou být například
prováděny dva programy (nebo dvě vlákna) současně, čímž dochází ke zvýšení
celkového výkonu. Tento postup používá v současnosti například Intel pod
označením HyperThreading.
Chip multiprocessing: Na jediném čipu jsou umístěna dvě (nebo více) fyzická
procesorová jádra. Ta mohou pracovat nezávisle, avšak sdílejí některé zdroje.
Například IBM dodává svůj "dual-core" procesor Power4 a očekává se, že Sun
Microsystems uvede ještě v letošním roce svůj UltraSparc IV, zatímco Intel
představí svoji verzi Itania se dvěma jádry v roce 2005.
Runtime optimalizace: Používá kombinaci speciálních obvodů procesoru a
dynamický runtime překladač pro nepřetržitou analýzu chování programu a
opakované objednávání instrukcí za účelem dosažení vyššího výkonu. Ačkoliv se
použití této metody neprojeví zvýšením rychlosti procesoru, zlepší se to, o co
uživatelům vlastně jde výkon.
"Další zvyšování výkonu hledáním paralelismů v jediném proudu instrukcí provází
exponenciálně rostoucí zvyšování nákladů," dodává Justin Rattner, ředitel
výzkumu v oblasti mikroprocesorů ve firmě Intel. "Díky tomu bude nyní stále
více kladen důraz na paralelismus na úrovni threadů, tzn. počet zpracovávaných
vláken na každý procesor, a počet procesorů v každém čipu." Rattner tvrdí, že
Intel se také zabývá výzkumem v oblasti procesorů a kompilátorů, které
provádějí optimalizaci běhu programu v reálném čase. "Zabýváme se použitím pro
program viditelných nástrojů tak, aby měl překladač přístup k podmínkám
ovlivňujícím běh programu," říká. "Vše tedy probíhá za běhu programu, jde o
kompilátor pracující ve smyčce." Tato technika podle Rattnera přispěla ke
dvojaž čtyřnásobnému zvýšení výkonu. Předpovídá, že vylepšováním základní
polovodičové technologie dojde v následujících 5 letech přibližně ke
ztrojnásobení taktovacích frekvencí mikroprocesorů. Avšak toto zvyšování
rychlosti spolu s využíváním paralelismů v různých podobách by mohlo zvýšit
celkový výkon až šestkrát či sedmkrát.
Multithreading a multiprocessing v čipech bude hrát důležitou roli zejména v
oblasti serverů, protože právě ty běžně (či dokonce po většinu doby) pracují s
vysokou zátěží ať už jde o zpracování transakcí nebo provozování webových a
databázových aplikací, které jsou už ve své podstatě threadované. Na
desktopových PC bývají naopak typicky provozovány jednouživatelské aplikace,
které probíhají v jediném vláknu. "Výsledkem je, že neustávající honba za
vyššími výpočetními rychlostmi v oblasti desktopových počítačů brzy pozbude
významu," říká Kevin Krewell, analytik a editor newsletteru Microprocessor
Report.
Podle Krewella se tak design procesorů pro desktopy a především notebooky bude
ve stále větším měřítku soustředit na snižování spotřeby, rozměrů nebo na
bezhlučný provoz.

V říši křemíku
Zatímco výrobci mikroprocesorů pracují na zvyšování výkonu, vývoj se odehrává i
na jiné úrovni současně totiž pracují i na hledání cest, jak obejít či využít
ve svůj prospěch fyzikální zákony. Současné křemíkové procesory obsahují
obvodové prvky, které jsou široké 130 nanometrů. U dalších generací, které se
budou objevovat zhruba ve dvouletých intervalech, se tato hodnota sníží
postupně až na 15 nm což je prakticky nejnižší hranice, na niž se dá s křemíkem
dostat. To nicméně nebude tak snadné.
"S tím, jak se posunujeme od 130 nm k 90, 65 a poté 42 nm, je pohotovostní
ztrátový výkon jedním z nejpodstatnějších problémů, které je třeba řešit na
úrovni křemíkových obvodů a jejich designu," říká Davari z IBM. Ztráta (únik)
energie, která je zbytečně vysoká a projevuje se vyzařováním tepla, roste podle
něj "dramaticky a exponenciálně".
IBM a další firmy obracejí pozornost k tzv. roztahovanému křemíku (strained
silicon), technice, která zajišťuje zvýšení výkonu a současně snižuje spotřebu
energie roztahováním molekul křemíku dále od sebe, čímž umožní elektronům
protékat tranzistory až o 70 % rychleji. Výrobci čipů rovněž experimentují s
novými materiály a metodami pro konstrukci menších, rychlejších a účinnějších
hradel (která ovládají elektrický proud protékající tranzistorem). "Tyto
výzkumy začaly probíhat při hledání výkonnějších řešení, dnes se však od nich
očekává i vyřešení problémů se spotřebou," říká Davari.
Jako jednu z možností vidí, že IBM rozšíří svoji existující dual-core
architekturu až na stovky procesorů na jednom čipu. Firma se navíc hodlá v
budoucnu pokusit integrovat dynamickou RAM s příslušnou logikou na jediný čip,
čímž se významně zredukují zpoždění při komunikaci CPU a paměti, navíc vzroste
propustnost/výkon a poklesne spotřeba energie. Další vývoj se bude zřejmě
ubírat také směrem k aplikačně specifickým funkcím, jakými jsou např.
šifrování, komprese videa, zpracování řeči, které budou namísto softwarového
řešení či speciálního hardwaru integrovány přímo na čipu.
"Procesory se dvěma jádry s sebou přinesou výkonový růst, avšak může se také
ukázat, že nejsou výhodné z hlediska výrobních nákladů, resp. ceny," podotýká
Krewell. Záleží také na tom, jak zareagují dodavatelé softwaru zda budou
dual-core procesory z hlediska licenčních podmínek pokládat za jeden či dva
procesory. "Intel přesvědčil Microsoft, že i s HyperThreadingem se stále jedná
o jediný procesor, ačkoliv vůči softwaru se tváří jako procesory dva," říká.
"Nicméně použijete-li dvě a potom třeba čtyři jádra, budou to prodejci softwaru
stále považovat za jediný procesor?"

64 vs. 32: Velikost hraje roli
Dnešní high-endové servery obsahují 64bitové procesory, zatímco v noteboocích a
desktopech, stejně jako v low-endových serverech stále pracují 32bitová CPU.
Většina serverů potřebuje nebo může s výhodou využít více než 4 GB operační
paměti, které dovoluje 64bitový adresní prostor. I stolní počítače budou
jednoho dne ke své práci potřebovat 4 GB paměti. "Nejméně po dobu 5 let však
ještě nebude běžné, aby byla desktopová PC založena na 64bitových procesorech,"
tvrdí Justin Rattner, šéf pro výzkum v oblasti mikroprocesorů v Intelu.
Naproti tomu společnost AMD předpokládá, že v roce 2004 přejde s kompletní
řadou svých mikroprocesorů na 64 bitů. "Servery s 32bitovými procesory tak
budou do roka zastaralé a uživatelé pracující na desktopech budou požadovat 64
bitů už za 3-5 let, jakmile budou zmíněné 4 GB paměti cenově dostupné," tvrdí
Fred Weber, CTO pro výpočetní produkty v AMD.









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.