Další várka trendů pro rok 2020 – konec AI

21. 12. 2019

Sdílet

 Autor: Fotolia © borispain69
Technologická očekávání v devíti klíčových oblastech v roce 2020 formulovali experti společnosti Red Hat. Komentují klíčové technologie a očekávané události nadcházejícího roku v oblastech AI/ML a AIOps, v blockchainu, edge computingu a Internetu věcí, zaměřují se na hardwarové inovace a události v HPC a supercomputingu, i na inovace v open sourcu a bezpečnosti a přínosy bezserverového vývoje.

5GÚstup integrovaných platforem AI

„Očekává se ústup integrovaných platforem AI,“ předpovídá Daniel Riek, ředitel AI Center of Excellence ve společnosti Red Hat. „Spolu s platformou Kubernetes se zákazníci přesunou k nejlepšímu možnému přístupu k datové vědě a platformám a postupům pro AI. Bude těžší odlišit existující nabídky, které představují tenká uživatelská rozhraní a pracovní vrstvy ve stejných stozích open source, a pozornost se přesune k rozlišeným, specializovaným komponentám.“

Sanjay Arora, hlavní softwarový inženýr v Red Hatu, dodává, že strojové učení pro malá data a objemná data budou dvě samostatná vlákna. „Většina existujících problémů v odvětví se stále týká malých dat. Převažujícími překážkami jsou dostupnost čistých dat, definice problémů a modelů s použitelnými řešeními, nasazování modelů do produkčního prostředí a sledování výkonnosti modelů – to vše při současném dodržování předpisů, firemních pravidel a bez nutnosti účasti více různých týmů při nasazování modelu. Pro většinu organizací bude stále výrazným problémem práce s verzemi dat a modelů.“

Sanjay připomíná, že úvodní modely pro hluboké učení vyžadovaly velké objemy dat, aby se mohly vytrénovat a vyladit modely typu open source. „V mnohem menším měřítku jsou však datové množiny pro obrazové i jazykové úkoly realistické a jsou k dispozici v různých knihovnách (např. fasti.ai a spacy). Tím se otevírají další datové množiny pro analýzu, problémem zůstává spotřeba času a způsob interpretace.“

Sanjay dále předpovídá, že ve většině případů se budou hojně využívat nehluboké techniky učení, například lineární modely, stromové modely, clusterování, analýza časových řad a specializovanější analytické nástroje jako teorie front nebo diskrétní optimalizace. Přitom otázky důvěry a správy budou v popředí a jádru aplikací AI v reálném světě.

„Patrně uvidíme nárůst snah o regulaci AI, stejně jako dalších technologií pro správu důvěry modelů,“ pokračuje Sanjay a dodává, že trh zaplaví specializovaný hardware, určený pro řešení potřeb v oblasti efektivity napájení a výkonu, a speciálně v případech interference.

Více pozornosti přitáhnou platformy AI Ops / AI Dev (Sec) Ops.

„AI se začíná prosazovat v provozu AI a Dev(Sec)Ops a patrně upoutá pozornost ve výjimečných investicích,“ říká Daniel Riek, ředitel AI Center of Excellence Red Hatu, a upozorňuje, že zavedení dodavatelé platforem do této oblasti výrazně investují a budou se zaměřovat na tvorbu autonomního hybridního cloudu.

„Ústředním bodem autonomního hybridního cloudu se stane platforma Kubernetes, jelikož poskytuje požadované možnosti standardizace a automatizace, především ve spojení s principem Kubernetes Operators. Pro zákazníky to znamená vyšší spolehlivost, kvalitu a škálu v produkčním prostředí i v pracovních postupech DevOps,“ dodává Riek.

 

Tokenizace v blockchainu

Tokenizace, tedy reprezentace digitální i nedigitální hodnoty v podobě tokenů v blockchainu, kde je možné s nimi dále obchodovat a vyměňovat, bude podle Axela Simona, hlavního softwarového inženýra Red Hatu, i nadále podporovat úvahy o uvolnění síly volného trhu v podstatě pro cokoli a způsobí štědré investice, jelikož se nyní těší velkému zájmu finančního sektoru.

Poroste i zájem o digitální měny centrálních bank. „Není překvapivé, že po oznámení plánované kryptoměny Facebooku s názvem Libra došlo k oživení zájmu o kryptoměny i ke vzniku obav ze strany různých vlád,“ říká Simon a dodává, že „kombinace těchto dvou faktorů pohání kryptoměny centrálních bank, o nichž mnoho centrálních bank v posledních letech uvažuje. Někteří vnímají „fedcoiny“ (či digitální měnu s nuceným oběhem, fiat) jako další logický krok v rámci státem krytých měn, další je chápou jako naléhavý a nezbytný krok.“

Pokročí i spolupráce soukromých, uzavřených blockchainů s těmi veřejnými, otevřenými. Simon upozorňuje, že „jestli panuje ve sféře blockchainu nějaká shoda, tak na faktu, že nebude jeden blockchain, jenž by vládl všem. S touto skutečností na mysli lze říci, že je zde výrazný zájem zabránit „horizontálním silům“ a zajistit, že různé blockchainy mohou interagovat, a tento zájem bude sílit s dozráváním projektů jako Polkadot nebo Cosmos.“

Simon shledává zajímavým i skutečnost, že otevřená povaha blockchainového ekosystému v otázce kódu i kultury představuje významný faktor, jenž umožňuje uvedené interoperabilní fungování a predikuje, že toto vše připravuje cestu pro budoucnost, kdy bude existovat spousta veřejných i soukromých blockchainů a budou si spolu vyměňovat hodnotu v tzv. internetu hodnoty (Internet of Value).

 

Blockchainy jako kotevní vrstva

Když lidé uvažují o blockchainech, často je vnímají jako řešení určitého problému, nikoli jako možnost celkového řešení.

„V budoucnosti budeme svědky nárůstu projektů využívajících blockchain jako vrstvu ve svém řešení, častokrát jako kotevní vrstvu, kterou mohou ostatní prvky využívat k budování důvěry, jak již dokládají projekty s vlastní, samostatnou identitou, například Sovrin, založený na systému Hyperledger Indy. Ostatní oblasti, v nichž se jako součást řešení bude patrně využívat více blockchainů, jsou internet věcí a umělá inteligence,“ říká Simon.

Po vrcholu mediální popularity blockchainu v minulém roce se pozornost přesunula ke zprostředkování skutečných řešení.

„Často to znamená používat blockchain spíše jako nástroj, vrstvu v určitém řešení, než jako řešení samotné. Rovněž to znamená sledovat, jaké konkrétní silné stránky blockchainy mají, a využívat je: použití tokenů a související ekonomiky, revize kryptoměn a toho, co umožňují, z pohledu státu, a přenos hodnoty v síti heterogenních účastníků,“ říká Simon.

Technologie Edge Computingu, tedy zpracování dat „na okraji“ se stává stále populárnější. Podle Franka Zdarskeho, hlavního softwarového inženýra Red Hatu, budou veřejní poskytovatelé pokračovat v expanzi mimo cloud.

„Tři nejvýznamnější poskytovatelé veřejného cloudu (Amazon, Azure, Google) již nabízejí lokální komponenty pro služby, koncové brány a dokonce platformy mikrokontrolérových koncových zařízení, což ve všech případech slouží k podpoře zákaznických dat v rámci nabídky platformy jako služby. Velký počet veřejných cloudových služeb se zmenší tak, aby odpovídal těmto koncovým platformám a aby se rostoucí počet zákaznických uživatelských případů proměnil v atraktivní, avšak současně proprietární platformy s platbou dle využití,“ předpovídá Zdarsky.

Stejně tak se firemní koncová řešení dočkají přesnější definice a hojně se budou přesouvat do produkce upozorňuje Jered Floyd, člen týmu technického ředitele v Red Hatu: „Koncová nasazení se definují především podle jednotlivých případů použití, nikoli na základě konzistentní technické architektury, která omezuje rozšíření edge computingu, jelikož jednotlivé implementace musí jedinečným způsobem řešit problémy s distribucí výpočtů. Dodavatelé firemních platforem zaměřených na datová centra stanoví malý počet konzistentních technických architektur pro edge computing a dodají platformy a vývojářské nástroje, které zkrátí zákazníkům dobu zhodnocení při zavádění nových služeb edge computingu a dají jim možnost pustit se do širšího ekosystému inovativních služeb, při současném zachování kontroly nad firemní infrastrukturou a procesy.“ 

 

5G pro inovace

Na skutečnost, že zprovozňování sítí 5G ještě více podpoří inovaci koncových zařízení pro telekomunikace a firmy upozorňuje Frank Zdarsky, hlavní softwarový inženýr Red Hatu: „Architektury sítí 5G vytvářejí aplikační příležitosti i výzvy týkající se infrastruktury. Nižší latence, vyšší šířka pásma, vyšší hustota zařízení a zvýšená spolehlivost společně vytvářejí poptávku po vícevrstvých distribuovaných aplikačních architekturách – například výkonné datové analytice na koncovém zařízení, zasílající anomální data do připojené cloudové služby k dalšímu uvážení, nebo nezávislé operaci koordinované zařízením a kontejnerizovaným aplikačním komponentám v připojené základní stanici“ a dodává, že současně „nové (a rychle se rozrůstající) možnosti síťových aplikací 5G vyžadují vyšší flexibilitu a pružnost mobilních operátorů, s podporou přechodu od virtuálních síťových funkcí (VNF) ke kontejnerovým síťovým funkcím (CNF), s cílem nabízet nové služby s možností snadného nasazení.“

Podle Zdarskeho se poskytovatelé telekomunikačních služeb rozdělí na základě strategií zavádění mobilních možností edge computingu: „Jedna skupina poskytovatelů telekomunikačních služeb naváže partnerství s jedním ze tří zmíněných gigantů, aby ve svém mobilním systému edge computingu co nejrychleji využívala technologické možnosti a služby daného poskytovatele veřejného cloudu. Cenou za tuto možnost bude ze strany poskytovatele telekomunikačních služeb v podstatě předání klíče k cenným prvkům v jednotlivých lokalitách danému poskytovateli cloudu a omezení prostoru pro poskytovatele telekomunikačních služeb v hodnotovém řetězci a v kontaktu se zákazníkem. Další skupina si bude chtít udržet kontrolu nad svým majetkem a pustí se do širšího ekosystému služeb a vývoje služeb, s cílem vyvinout vlastní platformu pro mobilní edge computing. To ovšem vyžaduje, aby daní poskytovatelé spojili síly s dalšími poskytovateli telekomunikačních služeb a dohodli se na způsobu, jak federovat mezi svými mobilními platformami pro edge computing, aby bylo možné maximalizovat dostupnost vývojářů inovativních a atraktivních služeb edge computingu pro zákazníky.“

 

Vyšší konzistentnost aplikační architektury IoT

Aplikační sady IoT pro firemní nasazení budou více využívat komponenty, míní Jered Floyd, člen týmu technického ředitele v Red Hatu: „Navzdory standardizaci protokolu pro komunikaci s komponentami IoT, snímači a aktuátory existuje málo standardizace v aplikační architektuře. Používají se běžné vývojářské nástroje, ale architektura jednotlivých případů implementace IoT zůstává i dnes podivuhodně jedinečná. Na základě standardizace komponent typu open source se v roce 2020 objeví vyšší konzistentnost aplikační architektury IoT, od cloud přes koncové brány až po zařízení.“

 

Internet věcí na kolech

Nejvyšší nárůst využívání IoT podle Floyda zaznamená automobilový průmysl. „Dodavatelé automobilů zažívají zrychlování opožděné digitální transformace a uvědomují si, že hlavní odlišující hodnota, kterou mohou nabídnout, spočívá v informační infrastruktuře automobil-cloud, nikoli pouze ve výrobě motorů a dalších mechanických součástí. Namísto nasazování tuctů nezávislých subsytémů řízených mikrokontrolérem konverguje tato funkcionalita k jednomu vysoce výkonnému vestavěnému systému, trvale připojenému do cloudu. Tento „internet věcí na kolech“ již existuje v nejvyšší vrstvě trhu, ale v roce 2020 se rozšíří hlouběji a kvůli němu dojde v nejvyšší míře k nasazování IoT a s nejvyšším objemem dat.“

Hardwarové inovace

Jelikož Dennardovo škálování postupně končí, již nebude možné řešit výpočetní problémy pouhým zvyšováním taktovací frekvence a paralelismu, upozorňuje Hugh Brock, ředitel výzkumu ve společnosti Red Hat: „V roce 2020 dojde k výraznému nárůstu zájmu o heterogenní hardware, rekonfigurovatelná hardwarová programovatelná hradlová pole (FPGA), akcelerátory a vlastní zákaznické integrované obvody (ASIC). Začne se objevovat nový model programování a nasazení, jenž přijímá fakt, že výpočet bude heterogenní a že hardware, podobně jako dnes software, bude možné nastavovat a měnit. Stále významnější budou nástroje a procesy open source, neboť tyto nástroje se vyvíjejí, zatímco proprietární řešení – podobně jako proprietární kompilátory v 90. letech 20. st. – za inovacemi zaostávají.“

Podle Brocka jsme na prahu výrazné změny hranice mezi softwarem a hardwarem a open source bude hrát v proměnách hardwaru mnohem výraznější roli než v minulých letech. 

 

Třesk na trhu HPC

Ohromný růst v oblasti HPC zaznamená podle Jereda Floyda, člena týmu technického ředitele v Red Hatu, platforma Arm, a ani RISC-V nebude v blízké budoucnosti příliš zaostávat: Standardizace platformy Arm prostřednictvím organizací jako Linaro konečně způsobila, že „vytváření serverů Arm je nudné“, a tedy opakovatelné a podporovatelné, a flexibilita a efektivita výsledných platforem podpoří nebývalý vzestup platformy Arm na trhu HPC. Příslib architektury RISC-V bez problematických vazeb podpoří rychlý zájem o tuto platformu, která půjde ve šlépějích platformy Arm – patrně nikoli hned v roce 2020, ale brzy poté.“

 

Růst vlivu SW projektů typu open source

Podle Leslieho Hawthorna, hlavního manažera technického programu open source v Red Hatu, lze očekávat nárůst a rozšiřování vlivu softwarových projektů typu open source: „Jen na službě GitHub je nyní 2,4 miliónu úložišť, která mají softwarovou licenci open source. To představuje velký počet nových myšlenek, které vznikají způsobem, jenž oproti proprietárním alternativám usnadňuje tvorbu a spolupráci,“ upozorňuje Hawthorn.

Poroste i diverzita v oblasti projektů typu open source, na což upozorňuje Steve Watt, hlavní architekt pro nové technologie v Red Hatu: „Nové nápady přicházejí z netradičních míst. Například v roce 2019 zaznamenaly největší nárůst celkového počtu projektů typu open source vytvořených ve službě GitHub země jako Nigérie, Írán a Keňa. Hongkong, Singapur a Japonsko pak dosáhly největšího nárůstu počtu přispěvatelů k softwaru typu open source. V blízké budoucnosti očekáváme, že více společností zaměřených na open source s financováním typu venture (nebo novějších společností vstupujících na trh) bude hledat legální strategie, jak vyřešit „bezbřehou“ spotřebu od dodavatelů cloudu.“

 

Watt dále předpovídá, že zvyšující se počet mladých společností typu open source bude používat agresivní strategie na ochranu IP a posílí pozice jako vlastníci softwaru, když ve skutečnosti jsou původními tvůrci a dodává, že „v nadcházejícím roce budeme patrně svědky situace, kdy více vývojářů open source bude agresivně chránit kód, u něhož budou mít dle svého názoru právo provádět inovace dle vlastních etických zásad.“

 

Nové výzvy v bezpečnosti

Organizace začínají hledat způsoby, jak nasazovat více úloh do veřejného cloudu a využívat otevřenější hybridní cloudovou strategii, potvrzuje zkušenosti zákazníků Mike Bursell, hlavní bezpečnostní architekt Red Hatu: „V současnosti způsobují právní předpisy, normy a osvědčené postupy mnoha organizacím starosti se spouštěním citlivých úloh mimo vlastní prostory, neboť pak může k úlohám přistupovat nepovolaná osoba nebo napadený server a zasáhnout do čehokoli – od konfigurace firewallu přes výplatní pásky a zdravotní údaje až po podrobnosti o kreditních kartách.“

Bursell dále upozorňuje, že některé úlohy jsou tak citlivé, že je nelze bezpečně provozovat na standardních lokálních strojích, ale vyžadují další softwarové a hardwarové kontroly, přičemž současná řešení poskytují šifrování pro nečinná data (v úložišti) i přenášená data (v síti), ale nikoli pro používaná data (v průběhu jejich aktivního zpracování). Kromě toho některé úlohy používají algoritmy, které jsou samy o sobě citlivé – mj. do této kategorie spadá mnoho aplikací pro umělou inteligenci a strojové učení, a ty je třeba také chránit.

„Až donedávna existovalo jen velmi málo možností nad rámec hardwarových bezpečnostních modulů (HSM), které jsou nákladné a těžko se používají. HSM umožňují chránit konkrétní operace – obvykle šifrování – s vysokým stupněm zabezpečení, ale kromě nákladnosti a obtížného používání tyto moduly rovněž nemohou škálovat. Pro organizace s rostoucím počtem citlivých aplikací, které zpracovávají rychle rostoucí objemy citlivých dat, moduly HSM nebyly a nejsou odpovědí,“ konstatuje Bursell a doplňuje, že v reakci na tyto úvahy přišli výrobci čipů u některých ze svých procesorů s novou funkcí s názvem TEE (důvěryhodné spouštěcí prostředí).

Technologie skrytá za TEE nabízí možnosti ochrany úloh ze softwaru a operačních systémů v zařízení, na nichž úlohy běží. Nejznámějšími příklady jsou SGX od společnosti Intel a SEV od společnosti AMD, a přestože jsou oba tyto pojmy celkem nové, odvětví je začalo vnímat a zabývat se těmito novými technologiemi, které nabízejí možnost spouštět citlivé aplikace na mnohem větším počtu míst napříč otevřeným hybridním cloudem.

Jde o nově vznikající úsilí a hardware s podporou TEE se zatím moc nenasazuje ani se snadno nepoužívá, takže vznikla nová skupina s názvem Confidential Computing Consortium, která působí v rámci celého odvětví a umožňuje spolupráci, diskusi a účast.

 

Bezserverový vývoj

„Bezserverový vývoj“ jako princip nabízí zjednodušenou vývojářskou zkušenost, která se stane funkcí platformy,“ říká William Markito Oliveria, hlavní manažer pro správu produktů v Red Hatu a předpovídá, že „více poskytovatelů platformy jako služby začlení bezserverové vlastnosti do denních činností, které vývojáři provádějí při tvorbě cloudově nativních aplikací, a stane se z nich výchozí výpočetní paradigma cloudu.“

ICTS24

Podle Oliviery budou firmy, které přijímají cloudový computing a chtějí přeškolit současný personál na nové technologie, hledat bezserverová řešení jako způsob, jak se vyhnout složitým principům a zajistit jednodušší výcvik.

„Datoví vědci si bezserverový přístup oblíbí, protože platformy mohou optimalizovat výkon a řešit složité problémy s umístěním kódu pomocí jednoduchého modelu, který umožňuje uživatelům zaměřit se na odlišení firmy nebo modelování abstraktní infrastruktury,“ predikuje Oliviera.