Minulý týden vyzvala řada technologů, aby byl na šest měsíců pozastaven výcvik nejvýkonnějších AI systémů, argumentujíc „vážnými riziky pro společnost a lidstvo“.
Využíváte už ve firmě autonomní agenty postavené na bázi umělé inteligence?
V otevřeném dopise, který už podepsalo víc než 3 100 signatářů, včetně spoluzakladatele společnosti Apple Steva Wozniaka, technologičtí lídři upozornili zejména na nedávno oznámený algoritmus GPT-4 společnosti OpenAI Lab a uvedli, že by společnost měla zastavit další vývoj, dokud nebudou zavedeny standardy dohledu. Záměr podpořili technologové, generální a finanční ředitelé, doktorandi, psychologové, lékaři, vývojáři softwaru a inženýři, profesoři a učitelé veřejných škol z celého světa.
V pátek se Itálie stala první západní zemí, která zakázala další vývoj aplikace ChatGPT kvůli obavám o ochranu soukromí. V aplikaci pro zpracování přirozeného jazyka totiž došlo minulý měsíc k úniku dat, který zahrnoval konverzace a platební údaje uživatelů. Italský úřad pro ochranu osobních údajů uvedl, že rovněž vyšetřuje, zda chatbot neporušil pravidla Evropské unie o obecném nařízení o ochraně osobních údajů, která byla vytvořena za účelem ochrany osobních údajů v EU i mimo ni.
Mnozí lidé z technologické komunity očekávají, že GPT, což je zkratka pro Generative Pre-trained Transformer, pokročí a stane se GPT-5 – a tato verze už bude umělou obecnou inteligencí (AGI – Artificial General Inteligence) neboli takovou, která dokáže myslet sama za sebe. V tu chvíli by algoritmus v průběhu času dále exponenciálně rostl a stával se chytřejším.
Podle výzkumné skupiny Epoch, která se snaží předpovídat vývoj transformační AI, se kolem roku 2016 objevil trend tréninkových modelů AI, které byly o dva až tři řády větší než předchozí systémy. Tento trend pokračuje i nadále. Podle Jaimeho Sevilly, ředitele společnosti Epoch, sice v současné době neexistují žádné systémy AI větší než GPT-4, v parametrech tréninkového výpočtu. To se však změní.
Anthony Aguirre, profesor fyziky na Kalifornské univerzitě v Santa Cruz a výkonný viceprezident neziskové organizace Future of Life, která zveřejnila otevřený dopis vývojářům, uvedl, že není důvod se domnívat, že se výpočetní schopnosti GPT-4 nebudou i nadále každý rok více než zdvojnásobovat. „Výpočty největšího rozsahu zvětšují svou velikost přibližně dvaapůlkrát ročně. Parametry GPT-4 nebyly společností OpenAI zveřejněny, ale není důvod si myslet, že se tento trend zastavil nebo snad zpomalil,“ uvedl Acquirre. „Pouze samotné laboratoře vědí, jaké výpočty provádějí, ale trend je jednoznačný.“
Spoluzakladatel společnosti Microsoft Bill Gates ve svém pravidelném blogu 23. března označil AGI – která je schopna naučit se jakýkoli úkol nebo téma – za „velký sen počítačového průmyslu“. „AGI zatím neexistuje – ve výpočetním průmyslu probíhá silná debata o tom, jak ji vytvořit a zda ji vůbec lze vytvořit“ napsal Gates. „Nyní, s příchodem strojového učení a velkého množství výpočetního výkonu, jsou však sofistikované AI realitou a budou se velmi rychle zlepšovat.“
Muddu Sudhakar, generální ředitel společnosti Aisera, která se zabývá generativní umělou inteligencí pro podniky, uvedl, že existuje jen hrstka společností zaměřených na dosažení AGI jako OpenAI a DeepMind (podporovaná společností Google), ačkoli mají „obrovské množství finančních a technických zdrojů“. I tak je ale podle něj k AGI čeká ještě dlouhá cesta.
„Existuje tolik úkolů, které systémy umělé inteligence nedokážou řešit a které člověk zvládá přirozeně, jako je uvažování zdravým rozumem, poznávání faktů a chápání abstraktních pojmů (jako je spravedlnost, politika a filozofie),“ uvedl Sudhakar v e-mailu pro Computerworld. „Pro AGI bude potřeba mnoho průlomových objevů a inovací. Ale pokud se to podaří, zdá se, že tento systém by z větší části nahradil člověka a museli bychom vytvořit množství ochranných opatření, aby AGI nepřevzala plnou kontrolu.“
Ne všichni však se Sudhakarovým tvrzením, že AGI je stále tématem ze světa science fiction, souhlasí.
Technologie umělé inteligence a chatbot asistenti pronikají a budou pronikat téměř do všech odvětví. Mohou zvýšit efektivitu a převzít všední úkoly, čímž uvolní místo znalostním pracovníkům a dalším, aby se mohli soustředit na důležitější práci.
Například velké jazykové modely (LLM) – algoritmy pohánějící chatboty – mohou procházet miliony upozornění, online chatů a e-mailů a také vyhledávat phishingové webové stránky a potenciálně škodlivé spustitelné soubory. Chatboti pohánění LLM mohou psát eseje, marketingové kampaně a navrhovat počítačový kód, a to vše jen na základě jednoduchých uživatelských zadání.
Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.
Chatboti pohánění LLM jsou procesory přirozeného jazyka, které v podstatě předpovídají další slova poté, co jsou vyzvány otázkou uživatele. Pokud by tedy uživatel požádal chatbota, aby vytvořil báseň o člověku sedícím na pláži v Nantucketu, umělá inteligence by jednoduše zřetězila slova, věty a odstavce, které jsou nejlepšími odpověďmi na základě předchozího školení programátorů.
Ale LLM se také dopouštějí závažných chyb a mohou vytvářet tzv. halucinace, kdy se jejich motory pro generování dalších slov vymknou z kloubů a vytvářejí bizarní odpovědi.
A pokud se umělá inteligence založená na LLM s miliardami nastavitelných parametrů může vymknout z kloubů, o kolik větší bude riziko, až umělá inteligence přestane potřebovat lidi, aby ji učili, a bude moci myslet sama za sebe? Podle Avivah Litanové, viceprezidentky a významné analytičky společnosti Gartner Research, je odpověď mnohem závaznější.
Litanová se domnívá, že vývojové laboratoře AI postupují vpřed závratnou rychlostí bez jakéhokoli dohledu, což by mohlo vést k tomu, že se AGI stane nekontrolovatelnou. Dle ní se vývojáři „řítí kupředu, aniž by uživatelům poskytli vhodné nástroje pro sledování toho, co se děje“. „Myslím, že vývoj je mnohem rychlejší, než kdokoli kdy očekával,“ říká Litanová.
V současné době se obává, že technologie umělé inteligence pro použití v podnicích jsou uvolňovány bez nástrojů, které uživatelé potřebují ke zjištění, zda technologie generuje přesné nebo nepřesné informace. „Nezapomínejme, že přístup k těmto inovativním systémům nemají jen lidé s dobrými úmysly,“ řekla Litanová. „Takže musíme mít systémy pro detekci autentičnosti, abychom dokázali rozlišit, co je skutečné a co uměle vytvořené. Obsah musí někdo ověřovat, jinak se dezinformace budou šířit jako požár.“
Například společnost Microsoft tento týden spustila systém Security Copilot, který je založen na velkém jazykovém modelu GPT-4 společnosti OpenAI. Jde o AI chatbot pro odborníky na kybernetickou bezpečnost, který jim pomáhá rychle odhalovat hrozby a reagovat na ně a lépe porozumět celkovému prostředí hrozeb.
Problémem je, že „vy jako uživatelé musíte do procesu vstoupit a identifikovat všechny chyby, kterých se dopustí,“ říká Litanová. „To je nepřijatelné. Měli by mít nějaký bodovací systém, který říká, že tento výstup je pravděpodobně pravdivý z 95 %, a tak má 5 % šanci na chybu. A tenhle má 10% šanci na chybu. Tento vhled, který vám umožní určit, zda a nakolik je výstup důvěryhodný, však nikdo neposkytuje.“
Ještě větší obavy v nepříliš vzdálené budoucnosti vzbuzuje fakt, že tvůrce GPT-4, společnost OpenAI, vydá verzi podporující AGI. V tu chvíli už může být na omezení technologie pozdě. Jedním z možných řešení, navrhuje Litanová, je vydat pro každý nástroj generativní umělé inteligence dva modely – jeden pro generování odpovědí, druhý pro kontrolu přesnosti prvního.
„To by mohlo usnadnit zjistit, zda model generuje něco, čemu lze věřit,“ domnívá se Litanová. „Nemůžete očekávat, že člověk projde všechen ten obsah a rozhodne, co je pravda a co ne, ale kdybyste mu dali další modely, které to kontrolují, umožnilo by to uživatelům sledovat jejich práci.“
V roce 2022 časopis Time informoval, že společnost OpenAI si u nízkopříjmových pracovníků v Keni zadala zakázku, kdy zjišťovali, zda její GPT LLM produkuje bezpečné informace. Pracovníci najatí firmou Sama se sídlem v San Francisku údajně dostávali dva dolary na hodinu a museli procházet odpověďmi GPT, které „měly tendence být násilné, sexistické a rasistické“. Litanová takovou praxi označila za „naprosto nemorální“.
„Vývojáři umělé inteligence musí spolupracovat s tvůrci politik, mezi něž by měly patřit minimálně nové a schopné regulační orgány,“ pokračuje Litanová. „Nevím, jestli se toho někdy dočkáme, ale regulační orgány nedokážou držet krok, což bylo předvídáno už před lety. Musíme přijít s novým typem úřadu.“
Shubham Mishra, spoluzakladatel a globální generální ředitel začínajícího podniku Pixis zabývajícího se umělou inteligencí, se domnívá, že ačkoli se pokrok v jeho oboru „nemůže a nesmí zastavit“, výzva k pozastavení vývoje umělé inteligence je oprávněná. Generativní AI má podle něj schopnost mást masy tím, že do veřejného prostoru pumpuje propagandu nebo „těžko rozlišitelné“ informace.
„Co můžeme udělat, je tento pokrok plánovat. To je možné pouze tehdy, pokud se všichni vzájemně dohodneme, že tento závod pozastavíme a soustředíme stejnou energii a úsilí na vytváření směrnic a protokolů pro bezpečný vývoj větších modelů AI,“ uvedl Mishra v e-mailu pro Computerworld.
„V tomto konkrétním případě nejde o výzvu k všeobecnému zákazu vývoje umělé inteligence, ale o dočasnou pauzu v budování větších, nepředvídatelných modelů, které konkurují lidské inteligenci,“ pokračoval. „Ohromující rychlost, s jakou jsou vyvíjeny nové výkonné inovace a modely umělé inteligence, rozhodně vyzývá k tomu, aby se technologičtí lídři a ostatní spojili a vytvořili bezpečnostní opatření a protokoly.“
Computerworld si můžete objednat i jako klasický časopis. Je jediným odborným měsíčníkem na českém a slovenském trhu zaměreným na profesionály v oblasti informačních a komunikačních technologií (ICT). Díky silnému zázemí přináší aktuální zpravodajství, analýzy, komentáře a přehledy nejnovejších technologií dříve a na vyšší odborné úrovni, než ostatní periodika na tuzemském trhu.
Obsah Computerworldu je určen odborníkům a manažerům z firem a institucí, kteří se podílejí na rozhodovacím procesu při nákupu ICT technologií. Jednotlivá čísla si můžete objednat i v digitální podobě.