Hlavní navigace

Futuristický počítač - budoucnost příštích let

1. 2. 1998

Sdílet

Opět se píše nový rok, a to je většinou okamžik, kdy za sebou máme takovou malou rekapitulaci toho, co jsme chtěl...


Opět se píše nový rok, a to je většinou okamžik, kdy za sebou
máme takovou malou rekapitulaci toho, co jsme chtěli (a zase
budeme chtít) dokázat. Za počítačovou oblast to PC WORLD vlastně
již za vás provedl v minulém čísle. Možná je ale na čase povolit
si více bezpečnostní pásy a podívat se dále do budoucnosti --
koneckonců milénium není daleko -- co za technologie, dnes
přítomné v podobě prototypů a úvah, nás čeká. Takové zamyšlení
nemusí být nutně vážné a seriózní a předpovědi není možné brát
za bernou minci. Stejně tak ale z něj může plynout určité
uklidnění, že není zas tak veliký důvod k stresování se nad
firemními technologickými strategiemi a nákupy - z globálního
hlediska budou mít naše i špatná rozhodnutí jen jepičí život a
následky. Ať už nakoupíme/nainstaluje dobře nebo špatně, během
čtyř až sedmi let bude v počítačové realitě všechno úplně jinak.
Dnes se soustředíme na oblast hardwaru a někdy příště se
podíváme, co se děje, plánuje či možná bude dít a plánovat v
oblasti aplikačního softwaru (pokud takové kategorie budou ještě
v budoucnosti existovat), umělých systémů a samozřejmě čehosi
zvaného operační systémy. Budeme také postupovat poněkud
obráceným směrem, když se po úvodu podíváme až do daleké
budoucnosti, a do té bezprostřední budoucnosti konce tisíciletí
jaksi "zacouváme."
Podle předpovědí rešeršních firem IDC a Dataquest můžeme v roce
2000 očekávat osobní počítače, které budou na běžných cenových
hladinách vybaveny průměrnými 128 MB RAM, 400MHz hlavním
procesorem a 10GB pevným diskem. Nakolik jsou tyto předpovědi
realistické, můžeme posuzovat podle vlastního postoje k nim.
Zatímco ještě před dvěma roky by kohokoli 32 MB paměti v
počítači určeném k osobnímu užívání ohromilo, dnes je u
některých značkových výrobců obtížné získat model se slabším
vybavením. Totéž platí o 200MHz procesoru či 2GB disku. Při
porovnání z hlediska průměrné rychlosti vývoje v tomto století
jsou pokroky v počítačové technice prostě ohromující. Časy se
ovšem změnily natolik, že dnešní uživatel si spíše klade otázku,
zda je dynamika vývoje dostačující. Často se totiž může zdát, že
problémů a nároků přibývá rychleji, než je možné je řešit. Je
ovšem mnohem snadnější zdesetinásobit velikost vaší pracovní
databáze, než zdvojnásobit rychlost vašeho pracovního počítače,
a podobných analogií bychom mohli nalézt spoustu.
V poslední době také přibývá hlasů, že se tempo vývoje zpomaluje
a stále více odborníků mluví o blížících se hranicích možností
současných technologií. Zpochybňována je udržitelnost platnosti
Moorova zákona, mluvícího o zdvojnásobení rychlosti procesoru
každých 18 měsíců (zpochybňována je samotným autorem), stejně
jako třeba možnosti rozvoje kapacity úložných zařízení. Je ovšem
pravda, že o technologických hranicích se mluvilo již u 50MHz
procesorů 80486 a Bill Gates samotný zpochybnil potřebu paměti
větší než 640 KB (možná jeho nejpopulárnější a nejoriginálnější
výrok). Přesto na těchto pochybnostech může být něco pravdy.
Dnešní velikosti tranzistorů v moderních procesorech již dávno
"minuly" vlnovou délku viditelného světla a nezadržitelně se
blíží do molekulárních dimenzí. Nejenže je stále obtížnější je
vyrábět, ale u elektronů pohybujících se jednotlivými kanály již
začínají převažovat vlnové stránky jejich povahy - jejich vlnová
klubka v podstatě přesahují až k "sousedům," které mohou
ovlivňovat. (Co byste také čekali od současných prototypů obvodů
s velikostí elementárních prvků 100 nanometrů a pracujících na
frekvenci 1 GHz?)
Jak se zdá, stojíme na přelomu nejen tisíciletí, ale také
technologických epoch, jejichž střídání je neodvratným dějem. Je
přitom zajímavé, že analogii současného dění můžeme najít na
přelomu minulého a našeho století, i když tehdejší "deprese"
byla přece jen větší. Klasická fyzika se zdála mrtvá, či alespoň
konceptuálně dokončena a nadějným studentům se doporučovaly
sociální vědy či alespoň chemie, kde ještě nějaké kombinace
sloučenin zbývalo vyzkoušet. Ředitelé patentovacích ústavů
odcházeli do penze, protože již "všechno bylo vynalezeno."
Dnes se to může zdát absurdní, ale podobné úvahy měly svoje
důvody a naše pozice je prostě o to lepší, že "víme, jak to
dopadlo." Kvantová fyzika v čele s principem neurčitosti
zpochybnila platnost klasické mechaniky ve světě malých dimenzí,
teorie relativity na to zase šla od lesa velmi vysokých
rychlostí. Dnešní svět je ovšem především světem polovodičů,
tedy něčím mezi vodičem a polovodičem.
Současný vývoj naznačuje, že příští století možná bude světem
genetického inženýrství (manipulací?). Možná je skutečně načase
pozastavit honbu za lepším počítačovým hardwarem, kde stále
větší (miliardové) investice přinášejí stále méně výrazná
zlepšení, a prostě si jen nechat vypěstovat lepší mozek (nebo
alespoň něco jako logický ko-mozek). Je pravděpodobné, že
dalších sto let bude světem především biologů a lékařů. V tomto
století prostě vyměnili ruční pilky za kotoučové (a na shrnování
kůže z lebky stejně potřebují pomocníka), vynalezli chemickou a
radiační terapii (v některých výkladových slovnících uváděno
jako vyhánění čerta ďáblem). V tom příštím nám "hydroponicky"
(až do uznání patentu odmítám podávat vysvětlení) vypěstují nové
končetiny místo těch useklých. Ke konci 21. století si budeme
moci potomka postavit podle vlastní představy z na dobírku
získatelné genové stavebnice a naše děti nás budou nenávidět za
to, že jsme jim nepořídili módní uši typu "Spock." To nás ale
nepochybně očekává další období pochybností, zda možnosti
"rozumné" genové variability nebyly vyčerpány.
To jsme se však již příliš vzdálili (dobrá, vzdálil jsem se) od
našeho tématu a pravděpodobného zájmu čtenáře. Stejně jako na
počátku tohoto století můžeme pro to příští očekávat radikálně
nový pohled na možnosti jednotlivých věd a technologií a využití
jejich dnes neexistujících "průniků" či mezí platnosti. Velmi
jsme se přiblížili k době, kdy zvládneme elementární základy
práce s geny a molekulární elektronikou. Mimo dnes tolik
populární pokusy s klonováním ovcí či genetickou manipulací žab
(viz pulci bez hlav) a myší (pokud jste přehlédli, tak viz
japonská myš se světélkující kůží) se menší pozornosti
veřejnosti těší fakt, že laboratoře pro idenfikaci svých
produktů používají podpisy ve formě genových sekvencí, stejně
tak, že v jiných laboratořích pracují prototypy "molekulárních
tranzistorů" a tzv. molekulárních pamětí. Budeme se tedy držet
poměrně při zemi, když prohlásíme, že nás několik let dělí od
obvodů (OGC - organic grown circuit) tvořených molekulárními
součástkami a principy, vytvářených biochemickými postupy. Z
tohoto pohledu jsou ty dnešní IC (integrated circuit) vytesávány
dlátem (pomocí fotomasek a laserového paprsku, pro ty
následující budeme možná potřebovat lžíci.
Takovými prostředky lze dojít nejen k velmi malým procesorům a
pamětem o extrémních hustotách, ale tyto obvody budou velmi
rychlé díky svým schopnostem autonomního učení a masivního
paralelního provádění operací již na základě své podstaty,
nikoliv podle jim uměle vnucovaného algoritmu z o mnoho vrstev
výše vzdáleného operačního systému.
Nenechme se přitom zmýlit pojmem obvod. Nemusí jít jen o
procesory a klasické "dočasné" paměti. Půjde také o čisté
polovodičové náhrady dnešních disků, CD-ROMů a dalších zařízení,
které jako obvody určitě nevnímáme, ale v budoucnosti se to
změní.
V poslední době můžeme často vídat tvrzení o mezi pro růst
hustot/kapacit pevných disků okolo roku 2005. To nás ovšem vůbec
nemusí nijak traumatizovat, protože již samotná myšlenka
ukládacího zařízení postaveného na pohybujících částech je
naprosto absurdní. Je možné, že dnešní magnetorezistentní hlavy
pevných disků jsou špičkovou technologií, stlačujících gigabajty
dat do čtverečního palce, stále je ale nutné gramy (v těchto
dimenzích tuny) jejich hmoty přesouvat ze stopy na stopu. Proto
se ostatně vyhledávací doby disků příliš nezlepšují a zůstávají
někde u řádu několika milisekund, na časové míle daleko od
současných polovodičových paměťových obvodů.
Rychlost otáčení ploten s magnetickým povrchem přitom nic
neřeší, protože přispívá k¦obvodovým, a tudíž přenosovým
rychlostem. (Právě mi na mysl přišel zábavný koncept, kdy by
plotny rotovaly ještě okolo jedné "vnější" osy tak, aby snímací
hlavička postupně protínala všechny stopy. V takovém případě by
rychlost tohoto otáčení přímo ovlivňovala přístupové časy, ovšem
zase s přenosovou rychlostí by to dělalo ošklivé věci.) Pravdou
ale zůstává, že v ne tak vzdálené budoucnosti budou s výjimkou
závěrečné archivace pro ukládání dat sloužit vysokapacitní
polovodičové paměti, a nemusíme hned uvažovat futuristické
technologie. Jestliže dnes v rámci prototypů existují
jednogigabitové čipy (v dnešních pamětech se používají 16- a
64megabitové čipy), potřebujeme 8 těchto "brouků" k uložení 1 GB
dat na destičku velikosti diskety, při přenosových rychlostech
na úrovni stovek megabajtů za vteřinu a přístupových dobách
desítek nanosekund. Tento výhled do budoucnosti je nepochybně
optimistický, třeba jen z důvodu umělé inteligence, která možná
více než na rychlosti zpracovávání závisí na možnosti
efektivního ukládání naučených vědomostních a myšlenkových vzorů.
Pokud budeme uvažovat v rámci termínů z počítačové současnosti,
velikosti RAM (random access memory) nenaráží na žádné
principiální stropy, protože paměťové moduly (DIMMy či SIMMy)
jsou kumulativní - prostě se jen skládají do slotů vedle sebe.
Dnes je to jen otázkou dostatečného počtu paměťových slotů -
dražší osobní počítače, určené jako servery, dnes osadíme až 1
GB RAM. Z toho pohledu můžeme považovat 128 MB jako standardní
paměťové vybavení v roce 2000 za naprosto realistický údaj.
Umožní to také výrazný pokles cen za uložení jednoho bitu
informace, např. díky posledním úspěchům firmy Intel na poli
množství bitů uložitelných - což nemusí být nutně jeden - v
elementární buňce (tvořené několika kondenzátory a tranzistory)
paměti.
Na poli rychlosti pamětí to již není tak snadné, přes všechny
nové typy pamětí (dnes je nastupujícím typem především SDRAM, v
budoucnosti je možná architektura RAMBUS a další) se pohybuje v
rámci jednoho řádu 10 - 60 ns. I takové rozdíly ale hrají roli,
a pokud uživatelé stále ještě žijí ve světě EDO SIMMů či DIMMů,
budou se muset velmi rychle přeorientovat, protože nové 75 -
100MHz motherboardy takové pomalé čipy akceptovat nemohou, či
alespoň ne bez značného zpomalení jejich činnosti.
Vliv rychlosti paměti na výsledný výkon počítače v poslední době
přece jen eliminovaly nové typy vyrovnávacích pamětí,
pracujících přímo na rychlosti procesoru a sdílejících s ním
jeho sběrnici. Z pohledu dnešního uživatele neexistují, protože
sdílejí jedno pouzdro s procesorem, pokud už nejsou přímo na
tomtéž čipu. (Konkrétněji např. Pentium II a Pentium Pro, nebo
celá nová řada PowerPC 750.)
Pro diváky nejvděčnější je ale boj procesorů o co největší
rychlost. Jak již vyplynulo z článku, ač se nám při zachování
ceny dostupné procesory - a tedy i počítače - urychlí dvakrát
každých 18 měsíců, nemají šanci proti neustále rozpínajícím se
masám dat. Podobných oblastí bychom ale našli spoustu, průměrná
velikost souborů a WWW stránek na Internetu také roste (kdy jste
naposledy viděli demoverzi hry pod 20 MB?), zatímco rychlosti
domácích modemů rostou jen pomalu 28,8 -> 33,6 -> 56 kb/s a
možná -> 112 kb/s.
Ale nazpět k rychlostem procesorů: v roce 1997 bylo rozložení
sil (u reálně prodávaných produktů) Pentium II:300 MHz, PowerPC:
350 MHz, Alpha: 600 MHz. Tyto hodnoty nám garantují pro letošek
osobní počítače v rozumných cenových relacích frekvenční rozmezí
200 - 400 MHz, pro rok 1999 300 - 500 MHz, a jsme na přelomu
tisíciletí, u počítače za 2 000 dolarů s průměrnou rychlostí 400
MHz. Samozřejmě se vnucuje otázka multiprocesorových počítačů,
které mohou elegantně nabízet "škálovatelnost" výkonu podle
potřeby, jak je to obyčejem u sálových počítačů. Problémy jsou
bohužel v technologické nedospělosti operačních systémů i
hardwaru. "Domácí" systémy jako Windows 9x či Mac OS 8 prostě
symetrický multiprocessing nenabízejí a u procesorů typu Pentium
II či PowerPC 750 je také možná kooperace více čipů značně
chabá.
Principiální problém leží rovněž ve sdílení operační paměti mezi
několika aktivními procesory, kde si pro budoucnost nacvičte
pojmy jako je NUMA (nonuniform memory access), což je technika
paralelního přístupu do paměti, vůči níž se snad s výjimkou SGI
všichni výrobci počítačů včetně mainframů prozatím chovají
značně nejistě. Jasně vyložené karty jsou ale již u nového typu
procesoru, odvozeného od technologie VLIW (very long instruction
word). Po několika odkladech můžeme již najisto pro konec roku
1999 počítat se 64bitovým procesorem IA-64 (dříve Merced) firmy
Intel, jehož jádro by mělo běžet na 1 GHz a měl by mít schopnost
zpracovávat "makroinstrukce" načítané v jednom kroku z paměti
jejich rozkládáním do až několika set "mikroinstrukcí" (více
zjednodušující vysvětlení principu VLIW za tyhle peníze
neseženete).
Na 1 GHz mezi -- kterou jsme z úvah o osobních počítačích tohoto
století/tisíciletí vědomě vynechali -- ale Merced určitě nebude
sám. Podle neoficiálních zdrojů má IBM na odborné konferenci již
v únoru tohoto roku předvést svůj 1GHz procesor (označení
naznačuje, že bude nejspíše určen na pomoc sálovým počítačům).
Měli bychom si přitom uvědomit, že překonání nové frekvenční
hranice nebývá u procesorů podmíněno přepracováním architektury,
ale prostým automatickým výsledkem vylepšení výrobního procesu,
který je dnes na úrovni součástek 0,18 -- 0,25 mikronu a má do
konce století klesnout na 0,1 mikronu. Klíčovým je zde zdroj
záření, pomocí nějž je na fotocitlivý materiál vytvářena maska,
přes kterou se potom napařují jednotlivé polovodičové vrstvy.
Dnes jsou výrobci tlačeni do ultrafialové oblasti a v rámci
spolupráce firem Advanced Micro Devices, Intel a Motorola se
odehrává boj s rengenovými zdroji, které by v následujících dvou
desetiletích přinesly až 0,03mikronové procesy.
Co se týká proudů tekoucích takovýmito kanály, současná
polovodičová technologie je postavena na pohybu bloků několika
set tisíc elektronů. Již více než rok ale běží v Cambridge
University rešeršní projekt, zaměřený na "jednoelektronové
paměti a další polovodičová zařízení", během kterého již byl
skutečně postaven tranzistor pracující na bázi průchodu jediného
elektronu. Komerční aplikace je samozřejmě ještě desetiletí
daleko, na druhé straně, kdo ví...
Vložený krátký text s doporučenými texty