Umělá inteligence čeká na chladný výkon

snížení jejich spotřeby. Základní výzkum zaměřený na zvýšení výkonnosti počítačového hardwaru a zlepšení f...


snížení jejich spotřeby.
Základní výzkum zaměřený na zvýšení výkonnosti počítačového
hardwaru a zlepšení funkčnosti softwaru již trvá více než 50 let. Celá řada
používaných metod však již dorazila až na samé hranice svých možností a tak je
budoucnost v rukách vědců, kteří se odvážně pustili novými směry. V oblasti
informačních technologií existuje množství nezodpovězených otázek, se kterými se
potýkají vědci i ekonomové. Týkají se technického pokroku samotného i
společenských problémů jím způsobených. V následujícím textu se zaměříme na
výzvy ve třech klíčových oblastech výzkumu IT: výkonnosti procesorů,
miniaturizace čipů a umělé inteligence.

Výkonnost procesoru
V roce 1965 Gordon Moore, spoluzakladatel Intelu, zjistil, že hustota
tranzistorů se na polovodičových čipech zdvojnásobuje každých 18-24 měsíců,
takže nové osobní počítače jsou pak vždy zhruba dvojnásobně výkonnější než
jejich předchůdci. Většina výzkumníků očekává, že Moorův zákon bude platit ještě
alespoň dalších deset let. Výkonnost procesorů ale začíná dosahovat svých mezí,
a to především v důsledku přílišného ztrátového výkonu tranzistorů. "S dalším
pokračováním platnosti Moorova zákona je čím dál tím obtížnější získat stále
menší zařízení za využití technologie CMOS," říká Phil Kuekes, počítačový
architekt HP Labs. "Je stále těžší efektivně chladit čipy," dodává Bijan Davari
z výzkumného centra IBM Thomase J. Watsona. "Hustota tranzistorů a tím i
výkonnost je u vzduchem chlazených procesů omezena hranicí příkonu v řádu 100
wattů na čtvereční centimetr plochy čipu. A vstříknout kapalinu, která by
umožňovala až dvojnásobně efektivní chlazení, do zadní části čipu, je
komplikované, a tudíž drahé," dodává Davari.
"V závislosti na rozsahu napětí a jiných faktorech spotřebují procesory Pentium
4 a Itanium 100 až 150 W výkonu," dodává Davari. "U budoucích procesorů bychom
rádi snížili ztrátový výkon na desítky wattů na jádro procesoru a současně
udrželi hustotu výkonu nebo ztrátový výkon na plošnou jednotku," říká. Uvedená
omezení vedou badatele k volbě nových přístupů k růstu výkonnosti procesoru.
Patří k nim například umístění několika jader procesorů na jeden čip, ale také
nové přístupy k designu čipu. IBM zde například vyhodnocuje a v některých
případech již nasazuje nové materiály, jako například měď, křemík na izolantu
nebo křemík s germaniem. To má vést k vylepšení výkonnosti, snížení spotřeby
nebo dosažení kombinace obojího. "Nové materiály umožňují badatelům vyrábět
menší čipy, které spotřebovávají výrazně méně energie," vysvětluje Davari.
"V naší společnosti pracují výzkumníci s takzvanými materiály s nízkým k, což
umožňuje více zhustit kovové obvody na čipu beze zvýšení rizika úniku
elektrického signálu," říká Randy Goodall, ředitel International Semantech
Manufacturing Institute. (Podrobné informace o technologii nízkého k (low-k) lze
nalézt na webu NASA nepp.nasa.gov/in dex_nasa.cfm/934/.)
Pro zvýšení ztrátového výkonu testuje IBM chladicí gely, které by zabránily
vytváření přehřátých míst na čipu. "IBM se také zabývá myšlenkou vodou
chlazených mikroprocesorů," říká Davari.

Rychlejší toky
Pro zlepšení šířky přenosového pásma uvnitř čipů pracují výzkumníci v MIT na
projektu nazvaném Raw Architecture Workstation Project, při kterém je mnoho
sčítacích a odčítacích jednotek umístěno napříč celým čipem, čímž je dosaženo
zpracování dat blízké místu jejich uložení; není tedy třeba je posílat přes celý
čip," říká Anant Agarwal, profesor elektronického inženýrství a počítačových věd
v MIT. "Je to jako jít do nejbližších potravin a netrmácet se přes celý okres."
Mezitím výzkumníci v National Laboratory v Los Alamos i jinde vyvíjejí systémy
paralelního zpracování, které by využívaly desítky tisíc procesorů a poskytovaly
by až 1 000 bilionů operací s pohyblivou řádovou čárkou za sekundu, a to již v
roce 2008.
David Patterson, profesor počítačových věd na Kalifornské univerzitě, věří, že
výzkumníci budou schopni zdvojnásobit počet procesorů, které mohou uložit na
jeden čip, každé tři až čtyři roky. "Hodně ale záleží na počtu softwarových
aplikací, které budou moci jejich výkon využít," varuje. "Programování velkých
paralelních počítačů je skutečně působivá práce," tvrdí Burton Smith, šéf vědců
ve společnosti Cray. "Jak bude během několika nadcházejících let vybavení
počítačů narůstat ze stovek procesorů na desítky tisíc procesorů, bude tento
problém dramaticky růst."
Společnosti Cray, IBM a Sun Microsystems proto vyvíjejí specializované paralelní
programovací jazyky. Smith očekává, že Cray brzy dotvoří svůj paralelní
programovací jazyk, nazvaný Chapel. Má být k dispozici již v roce 2005 jako open
source.

Miniaturizace čipů
Dnes je možné vyrobit čipy s prvky o velikosti 70 až 90 nanometrů širokých
obsahující stovky milionů tranzistorů. "V loňském roce vyvinuly laboratoře HP
64bitovou RAM, která zaujímá jeden čtvereční mikron," říká Phil Kuekes. "Jedním
ze způsobů, jak se vypořádat s teplem generovaným nahuštěnými součástkami je
redukovat napájecí napětí," vysvětluje Anantha Chandrakasan, ředitel
Microsystems Technology Laboratories v MIT. Za posledních deset let byli
designéři schopni vytvořit obvody, kterým stačilo napětí 1 volt a Chandrakasan
tvrdí, že půlvoltového napájení by měli designéři dosáhnout v horizontu pěti
let. "Jenže pro snížení napětí je nutné také snížit prahové hodnoty zařízení,
což způsobuje exponenciální nárůst úniku výkonu," říká Chandrakasan. Řešením
podle něj může být zvýšení důrazu na řízení toků napájení nebo odstavení
napájecí sítě v případě nečinnosti obvodu, používání napájecích spínačů na
čipové matrici a používání násobných prahových zařízení pro minimalizaci
požadavků na napájení. Tom Theis, ředitel IBM Research pro fyzikální vědy, věří,
že další zušlechťování ultratenkého křemíku a ultratenkých izolátorů v branách
tranzistorů by mohlo vědcům umožnit zmenšit délky kanálů z dnešních asi 45
nanometrů na 15-20 nanometrů během deseti let. Rovněž očekává nástup vysoce
výkonných čipů s 10násobným výkonem a s desetinásobnou kapacitou paměti oproti
současným, a to díky využití optických litografických nástrojů, jež mají být v
průběhu deseti let rovněž k dispozici.
Umělá inteligence
Výkonnější procesory s nižší spotřebou zřejmě pomohou i k dalšímu vývoji umělé
inteligence. Ta se skládá ze 3 hlavních disciplín: zpracování přirozeného
jazyka, strojového učení a robotiky. Současné pokroky v těchto oblastech
vyústily v komerční technologie, počínaje robotickým vysavačem Roomba a systémy
služeb zákazníkům s funkcí rozpoznání hlasu konče. Ale navzdory těmto úspěchům
mají počítače i nadále velké problémy se zvládáním toho, co jsme zvyklí
označovat za inteligenci. "Největším problémem je přijít na to, jak zorganizovat
počítačové programy tak, aby zdravě uvažovaly," říká Tom Mitchell, profesor
počítačových věd na Carnegie Mellon University. "Jedete-li autem a na silnici
leží pes, budete vědět, že pes odběhne, pokud zastavíte a zatroubíte. Pokud bude
na silnici stát koza na řezání dřeva, nezastavíte a nezatroubíte. Takové
rozhodnutí počítače udělat neumějí," vysvětluje.
Počítače také na rozdíl od lidí jen problematicky chápou kontext, protože jejich
znalosti jsou velmi omezené. Díky tomu nemohou systémy založené na umělé
inteligenci zpracovávat neúplné dotazy, jako například: "Ukaž mi volné
prázdninové resorty na Floridě kolem Vánoc".
Před několika lety začala firma IBM vyvíjet softwarový rámec, který podporuje
kontextově citlivé informace. Ty využívají přístupy založené na optimalizaci,
které na rozdíl od tradičních na pravidlech založených systémech mohou zvládat
různé dotazy uživatele na informace v kontextu. A to včetně nepřesných nebo
neúplných dotazů. "Na základě své interpretace dotazu uživatele může být díky
naší optimalizace dynamicky vytvářena reakce, která je ušitá na míru kontextu
uživatele. Lze tak brát v úvahu jeho preference, třeba pokud jde o cenu domu,"
vysvětluje Michelle Zhouová, manažerka pro inteligentní multimediální interakci
u IBM. Zhouová říká, že IBM již mohla začít provádět pilotní pokusy pro ověření
konceptu u vybraných zákazníků. Komerční systémy budou podle ní k dispozici za
dva až tři roky. Z důvodu ochrany před konkurencí však IBM odmítla poskytnout
podrobnější údaje. "Systémy, které dokáží zvládnout složitější interakce mezi
člověkem a počítačem, jako například zpracování žádosti o lístky do kina díky
rozeznávání hlasu, by měly být běžně používány během pěti až deseti let," dodává
Victor Zue, ředitel laboratoře MIT pro počítačové vědy a umělou technologii.









Komentáře
K tomuto článku není připojena žádná diskuze, nebo byla zakázána.