Přes všechny své revoluční sliby počítačový průmysl často zaostává za očekáváním. Celkem vzato je váš netbook ve skutečnosti jen notebookem, který je menší a levnější. Čip, který pohání současné počítače, je ze stejného rodokmenu jako dřívější procesory Pentium. Váš nejnovější pevný disk sice pojme 2 TB, ale je to stále jen klasický pevný disk. Kde jsou tedy skutečné inovace? Samozřejmě v laboratořích.
Výzkumné laboratoře univerzit a významných dodavatelů IT řešení pokračují ve vytyčování cesty kupředu. Produkty a nápady v nich vymyšlené mají potenciál zatřást odvětvím IT. Od sítí přes systémy pro ukládání dat, zabezpečení citlivých informací až po způsoby, jakými budou jednoho dne koncoví uživatelé ovládat rozhraní počítačů – každý aspekt se promítá do revolučních směrů.
Přinášíme několik nápadů rozvíjených v současných laboratořích – budoucí technologie, které by se mohly objevit možná dříve, než si myslíte.
Porušení Moorova zákona
Historie počítačů byla od poloviny dvacátého století převážně bojem s Moorovým zákonem. Gordon E. Moore, spoluzakladatel společnosti Intel, formuloval hypotézu, že zjednodušeně řečeno integrované obvody zdvojnásobí každých 18 měsíců svůj výkon. V praxi se ukázalo, že Moorova předpověď většinou platí. I když se výrobci čipů přiblížili k praktickým limitům konstrukce moderního procesoru, vícejádrové procesory jim umožnily vměstnat do stále kompaktnějších čipových sad ještě více výkonu.
Někteří vědci se však domnívají, že platnost Moorova zákona spěje už k opravdovému konci, a to nikoli proto, že by se zastavilo zrychlování procesorů. Spíše jsou přesvědčeni, že počítače brzy přejdou na kvantovou technologii.
Kvantové počítače – zařízení odvozující svůj výpočetní výkon ze zvláštních vlastností subatomických částic – jsou obecně považovány za příští hlavní směr vývoje v této oblasti. Zatímco se vědci snaží vytvořit praktické počítače tohoto typu (přestože nejúspěšnější experimenty dosud zvládly jen jednoduché výpočty), mohl by být velký počet dalších rozpracovaných počítačových technologií podobně revoluční.
Na University of Illinois navrhl profesor Rakesh Kumar nový způsob zvyšování rychlosti současných procesorů: Odstranění „brzd“. Uvádí totiž, že současné čipy tráví příliš mnoho času úsilím zcela přesně spočítat každý výpočet, zatímco integrované obvody z reálného prostředí neustále chybují.
Zajištění bezchybného výkonu způsobuje u čipů větší spotřebu energie, než je nutné, což ztěžuje zmenšování komponent na čipu. „Ne každá nepřesnost je katastrofou,“ tvrdí Kumar, jehož tým pracuje na technologii odolné vůči chybám namísto konstrukce procesoru bez nedostatků. V kombinaci se softwarem, který by dokázal pracovat s chybami čipu při jejich výskytu, by mohly takovéto tzv. stochastické čipy pracovat rychleji s menšími nároky na energii bez obav ze ztráty kontroly.
Mezitím se ale týmy z Michigan Technological University a japonského národního institutu National Institute for Materials Science pokoušejí o ještě radikálnější přístup. Zcela opustily použití křemíku a namísto něj používají materiál DDQ (jde o sloučeninu uhlíku, dusíku, kyslíku a chlóru) k vytvoření molekulárního počítače, o kterém prohlašují, že již napodobuje strukturu paralelního zpracování v lidském mozku.
Počítač napodobující myšlení člověka by mohl překonat současné procesory v řádech. Protože jejich konstrukce používá organické molekuly, věří výzkumníci, že takové počítače by mohly růst z řas namísto jejich výroby pomocí průmyslových chemických procesů.
Rychlé přenosy
Fráze „síť je počítač“, kterou poprvé použil výzkumník John Gage ve společnosti Sun Microsystems v roce 1984, nebyla nikdy tak výstižná jako dnes. Pro moderní počítačové systémy, od nejvýkonnějšího serveru až po nejmenší mobilní zařízení, existuje jeden společný požadavek – poskytovat okamžitý, rychlý a spolehlivý přístup k síti. Se zvyšujícími se požadavky na bohatý multimediální obsah je splnění tohoto úkolu stále náročnější. Naštěstí se objevují nové síťové technologie, které dají frázi „širokopásmový vysokorychlostní přístup“ nový význam a mohou být dostupné dříve, než byste čekali.
Standard 802.11n, který umožňuje provozovat bezdrátové sítě při rychlostech až 600 Mb/s, byl vytvářen velmi dlouho a uživatelé teprve teď začínají výrazněji upgradovat z pomalejších standardů 802.11b a 802.11g. To však neznamená, že se práce na Wi-Fi zastavily. Naopak – Wi-Fi Alliance a Wireless Gigabit Alliance spojily své síly na vývoji příští generace Wi-Fi, která slibuje udělat stejně velký skok kupředu, jako to provedl standard 802.11n. Nový standard bude vysílat v oblasti rádiového spektra 60 GHz a bude schopen přenášet data rychlostí až 7 Gb/s – dostatečně rychle pro vysílání videa datovými proudy v kvalitě Full HD.
Rychlosti Wi-Fi se však budou týkat pouze místní sítě. Rychlost, s jakou lze přistupovat k webu, ale stále závisí na příslušném připojení od poskytovatele internetu. Dosud byla nejrychlejší připojení dostupná pouze pro zákazníky, kteří mají přístup k přímým optickým spojům.
Poskytovatelé internetu však budou brzy schopni nabízet levné propojení při rychlostech odpovídajících optickému přenosu mnohem širšímu okruhu uživatelů, a to díky technologii DSL, kterou vyvíjí společnost Alcatel-Lucent. Pomocí kombinace triků se zpracováním signálu řešení slibuje zrychlit na více než 300 Mb/s po běžných měděných kabelech (takových, které instalují klasické telefonní společnosti) na vzdálenost až mnoha stovek metrů od komunikačního rozbočovače.
Místa není nikdy dost
Současná datová centra jsou jako ptačí mláďata – stále hladová. Větší kapacita pro ukládání dat, vyšší hustota, nižší spotřeba elektrické energie a rychlejší přístupové doby – požadavky podnikové sféry jsou v tomto směru nemilosrdné. Naštěstí byla v posledních letech oblast ukládání dat jedním z nejrychleji se rozvíjejících oborů počítačových technologií a trend se nezpomaluje. Výrobci pevných disků zvyšují kapacitu alarmující rychlostí a výrobci čipů připravují nové cesty pomocí vysokorychlostních řešení typu SSD. Nejzajímavější nové technologie pro ukládání dat však mají teprve přijít a budou zcela originální.
Ve výzkumném centru společnosti IBM (Almaden Research Center) pracují vědci na nové formě SSD, která se nazývá „racetrack memory“. S využitím nanometrových vodičů k ukládání informací na základě směru pohybu jednotlivých elektronů ukládá „racetrack memory“ data ve větší hustotě než tradiční technologie flash a poskytuje přístup k těmto datům rychlostí srovnatelnou s tradičními paměťmi RAM. Stejně jako u ostatních médií SSD jsou data po vypnutí napájení zachována. Narozdíl od současných úložišť využívajících paměti flash však při zápisu do zařízení využívajícího racetrack memory neexistuje rychlostní zpomalení a paměť se nikdy neopotřebuje.
Mezitím inženýři společnosti Hewlett-Packard doufají, že dají novou tvář staré myšlence. Koncept memristoru – název se skládá z částí slov „memory“ a „tranzistor“ – je znám od roku 1971, kdy ho popsal v dokumentu profesor Leon Chua na univerzitě UC Berkeley.
Až v roce 2008 však společnost HP oznámila, že úspěšně vyrobila fungující memristor, a nyní prohlašuje, že má tato technologie mnohem větší potenciál, než se profesor Chua domníval. Protože memristory používají některé části z konvenčních tranzistorů, otevírají dveře k úložištím, která budou schopna kromě uchovávání dat dokonce provádět své vlastní výpočty. Memristory navíc nabízejí přibližně dvojnásobnou hustotu ukládání dat než zařízení typu flash a jsou mnohem odolnější vůči radiaci. Firma HP doufá, že technologii převede do komerční sféry během několika málo let.
Dokončení článku vám přineseme zítra...