V případě generativní umělé inteligence (GenAI) se nacházíme v tzv. okamžiku iPhone, kdy se každá společnost snaží rychle vymyslet strategii, jak se vypořádat s touto převratnou technologií.
Co se dozvíte v článku
Zatajujete před šéfy, že vám v práci pomáhá umělá inteligence?
Podle průzkumu společnosti KPMG uskutečněného vloni v červnu očekává 97 % vedoucích pracovníků velkých společností, že jejich organizace budou v příštích dvanácti až osmnácti měsících silně ovlivněné generativní AI, přičemž 93 % věří, že bude tato technologie pro jejich podnikání přínosem.
Přibližně třetina organizací už začala nasazovat nástroje a řešení AI, zatímco více než čtyři pětiny respondentů uvedly, že v příštích šesti až dvanácti měsících navýší své investice do generativní AI minimálně o polovinu.
Podniky přitom používají strojové učení a umělou inteligenci už roky, uvádí Kalyan Veeramachaneni, vedoucí výzkumník pro IT systémy na institutu MIT, kde probíhá vývoj generativních modelů AI zaměřených na tabulková data.
Změnilo se ale to, že nyní jsou nástroje generativní AI přístupné lidem, kteří nejsou datovými vědci. „To otevírá nové možnosti,“ vysvětluje. „Zvýší se tím produktivita mnoha lidí.“
Podle nedávné studie analytické společnosti Valoir lze pomocí umělé inteligence automatizovat průměrně až 40 % pracovního dne zaměstnance. Nejvyšší potenciál pro automatizaci je v oblasti IT, následují finance, provoz, služby zákazníkům a prodej.
Podnikům ale může trvat roky, než vytvoří své vlastní generativní modely AI a začlení je do svých pracovních postupů, ale jednou z oblastí, kde může mít GenAI okamžitý a dramatický vliv na firmy, je její integrace do oblíbených aplikací pro produktivitu.
David McCurdy, technologický ředitel společnosti Insight, je přesvědčen, že 99 % organizací, které akceptují generativní umělou inteligenci, ji začne používat jako nástroje GenAI integrované v klíčových firemních aplikacích vytvořených někým jiným.
Microsoft 365, Google Workspace, Adobe Photoshop, Slack, Grammarly a mnoho dalších populárních softwarových nástrojů pro produktivitu už nyní nabízí komponenty generativní AI. V některých případech však zatím jde o pracovní verze.
Zaměstnanci tyto kancelářské nástroje znají a používají je každý den, takže když dodavatelé přidají funkce generativní umělé inteligence, okamžitě se tím tato nová technologie široce zpřístupní.
Podle nedávné studie společnosti Forrester Research již 70 % zaměstnanců používá GenAI pro některé nebo všechny své písemné projevy, ale čtyři pětiny z nich to dělají „tajně“, tedy ve společnostech, které tuto technologii dosud oficiálně nezavedly.
Integrace umělé inteligence, jako je např. ChatGPT od OpenAI, do aplikací pro produktivitu je rychlý způsob, jak firmy mohou přidat GenAI do svých platforem.
Například společnost Grammarly přidala v březnu funkce generativní AI do své asistenční platformy pro psaní a využila k tomu GPT 3.5 od OpenAI v privátním cloudovém prostředí Azure. Organizace však budou moci brzy vytvářet své vlastní přizpůsobené modely.
K trénování velkého jazykového modelu (LLM, Large Language Model) jako základu pro chatbota GenAI už nejsou potřeba miliony dolarů a miliardy záznamů tréninkových dat, pokud podnik začne s předtrénovaným základním modelem a poté ho doladí pro své potřeby, vysvětluje analytik Bradley Shimmin ze společnosti Omdia. „Množství dat potřebných pro tento typ trénování je dramaticky menší.“
Komerčně licencované modely LLM jsou už k dispozici – třeba Llama 2 společnosti Meta. Objem umělé inteligence integrované do oblíbených nástrojů pro produktivitu tedy zřejmě raketově poroste. „Džin je venku z láhve,“ přirovnává Juan Orlandini, technologický ředitel společnosti Insight.
GenAI může být také užitečná pro firmy, jejichž produkty se nezaměřují na vytváření nového textu nebo obrázků. Může se například použít jako rozhraní v přirozeném jazyce pro komplexní backendové systémy.
Doug Ross, viceprezident konzultantské firmy Capgemini, odhaduje současný počet společností přidávajících konverzační rozhraní do svých produktů už na tisíce.
„Lze z toho usuzovat, že to má hodnotu,“ konstatuje. „Je to jiný způsob interakce s různými databázemi a back-endy, který vám může pomoci zkoumat data způsobem, který byl dříve obtížný.“
Přestože může být generativní umělá inteligence převratnou technologií, která s sebou přináší i novou sadu rizik, může být tradiční scénář pro SaaS způsobem, jak zajistit kontrolu.
Jde o vzdělávání zaměstnanců o rizicích a výhodách, nastavení bezpečnostních mantinelů, které pracovníkům zabrání v přístupu ke škodlivým aplikacím a webům i v nezáměrném sdílení citlivých dat, a nabídku firmou schválených technologií, které dodržují osvědčené bezpečnostní postupy.
Kde ale mohou vzniknout problémy?
Rizika a výzvy
ChatGPT, Bard, Claude a další nástroje GenAI, stejně jako všechny aplikace pro produktivitu rozšiřující své funkce o generativní AI, mají všechny několik společných problémů, které mohou pro podniky představovat určitá rizika.
První a nejzřejmější potíží je problém s přesností. Generativní umělá inteligence je navržená tak, aby generovala obsah – text, obrázky, video, zvuk, počítačový kód atd. –, a to na základě vzorů v datech, na kterých se trénovala. Její schopnost poskytovat odpovědi na právní, lékařské a technické otázky je bonusem.
Ve skutečnosti jsou výsledky AI často poměrně přesné. Nejnovější verze některých populárních chatbotů GenAI by už dokázaly složit advokátní zkoušky a zvládly by i testy pro lékařské licence.
Některým uživatelům to ale může poskytnout falešný pocit bezpečí – jako když se pár právníků dostalo do problémů tím, že spoléhali na ChatGPT, aby našli relevantní judikaturu, jenže nakonec zjistili, že dotyčné případy vůbec neexistují a AI si je zkrátka vymyslela.
Je to proto, že GenAI nefunguje jako vyhledávač ani kalkulačka. Ne vždy dává správnou odpověď a navíc – nedává pokaždé stejnou odpověď.
Například pro případy generování programového kódu mohou mít velké jazykové modely extrémně vysokou chybovost, upozorňuje Andy Thurai, analytik společnosti Constellation Research.
LLM mohou mít při generování kódu podíl až polovinu kódu, který je ve skutečnosti neužitečný, nesprávný, zranitelný, nezabezpečený nebo může být zneužitelný hackery, varuje.
„Koneckonců tyto modely se trénovaly s využitím obsahu repozitáře GitHub, kde se chyby notoricky objevují.“
Důsledkem toho je, že ačkoli mohou AI asistenty pro psaní kódu zvýšit produktivitu, mohou také vývojářům někdy přidělat ještě více práce, protože musejí kontrolovat, zda veškerý kód splňuje podnikové standardy.
Situace se ještě více komplikuje, pokud přejdete od velkých generativních nástrojů umělé inteligence, jako je ChatGPT, k dodavatelům, kteří do svých nástrojů pro produktivitu přidávají proprietární modely umělé inteligence.
„Pokud do modelů vložíte špatná data, nebudete mít příliš spokojené zákazníky,“ varuje Vrinda Khurjeka, ředitelka poradenské společnosti Searce. „Když se zaměříte jen na používání funkce bez zohlednění a zabezpečení přínosu pro zákazníky, budete v situaci, která je všestranně nevýhodná.“
Dále zde existuje riziko předpojatosti, varuje. Výstupy podle ní dostanete jen na základě toho, jaká jsou vaše vstupní data.
Pokud se například nástroj, který vám má pomáhat generovat e-maily pro zákazníky, vytrénuje s využitím vaší interní komunikace, přičemž vaše firemní kultura bude obsahovat hrubý či jinak nevhodný styl vyjadřování, budou mít e-maily určené pro vnější svět stejný styl vyjadřování, upozorňuje.
Tento druh předpojatosti může mít ještě významnější důsledky, pokud vede k diskriminaci v zaměstnání nebo k neobjektivnímu zpracování žádostí o úvěry.
Je to skutečně vážný problém, tvrdí Khurjeka. „Všem našim zákazníkům doporučujeme, aby nepřistupovali k implementaci modelu GenAI jako k jednorázovému úkonu, který lze považovat za dokončený. Musíte používat audity, kontrolní mechanismy i vyvažování.“
Podle průzkumu KPMG patří přesnost a spolehlivost mezi deset nejvýznamnějších starostí firem v souvislosti s generativní AI. To je však jen začátek problémů, které může GenAI způsobit.
Některé modely umělé inteligence se například samy průběžně trénují s využitím probíhajících interakcí s uživateli. Veřejně dostupná verze ChatGPT například využívá konverzaci se svými uživateli k průběžnému trénování sebe sama, pokud si uživatel takové chování nevypne.
Když tedy například zaměstnanec vezme tajné plány své společnosti, zašle je do AI a požádá ji o napsání nějakého textu pro související prezentaci, stanou se tyto plány součástí znalostní báze dané AI.
Pokud se pak na tyto plány zeptá jiná osoba, dokonce třeba i z konkurenční společnosti, může umělá inteligence „správně“ odpovědět a poskytnout (tedy vyzradit) všechny podrobnosti.
Mezi další informace, které by mohly potenciálně uniknout tímto způsobem, patří osobní citlivé informace, finanční a právní údaje a proprietární kód.
Podle KPMG uvedlo 63 % vedoucích pracovníků, že nejvyšší prioritou jsou ochrana dat a soukromí. Kybernetická bezpečnost je se 62 % je hned na dalším místě.
„Jde o zcela reálné riziko,“ upozorňuje analytik Chase Cunningham z Forresteru. „Kdykoli využíváte tyto typy systémů, vždy závisejí na datech, která jsou nezbytná pro vylepšování jejich modelů. Problém spočívá v tom, že nemusíte mít kontrolu či vědět, co se vlastně používá.“
(Poznámka: OpenAI oznámila podnikovou verzi ChatGPT, o které uvádí, že nepoužívá data zákazníků k trénování svých modelů.)
Dalším potenciálním břemenem vytvářeným generativní AI je právní riziko spojené s nesprávně získanými tréninkovými daty.
V současné době se soudy už zabývají několika spory souvisejícími se skutečností, že některé společnosti nabízející umělou inteligenci prý využívaly pirátské weby k načtení knih chráněných autorskými právy a stahovaly obrázky z webů bez povolení jejich autorů.
To znamená, že podnik, který tyto produkty AI intenzivně používá, může také zdědit část této odpovědnosti. „Myslím, že se vystavujete riziku, že byste mohli být zatažení do nějakého soudního sporu,“ upozorňuje Cunningham.
Právní riziko skutečně uvedlo 20 % respondentů průzkumu KPMG jako hlavní překážku implementace generativní umělé inteligence.
GenAI navíc sice teoreticky vytváří originální nová díla inspirovaná obsahem, na kterém se trénovala, ale někdy mohou být výsledky téměř totožné s tréninkovými daty. Podnik tedy může nechtěně skončit jako uživatel obsahu, jenž se příliš blíží porušení autorských práv.
Zde jsou rady, jak zmíněná potenciální rizika řešit.
Vzdělávání zaměstnanců
Zahájení školení zaměstnanců, zaměřeného na generativní umělou inteligenci, by podniky už neměly odkládat. Pracovníci musejí rozumět možnostem i omezením generativní AI. Potřebují také vědět, které nástroje je bezpečné používat.
„Vzdělávání musí probíhat na podnikové úrovni,“ upozorňuje Wayne Kurtzman, analytik IDC. „Je povinností společností, aby vytvořily konkrétní směrnice a pravidla pro AI, aby se měli uživatelé čím řídit.“
Například výstup GenAI by se měl vždy považovat za počáteční návrh, který zaměstnanci pečlivě zkontrolují a podle potřeby upraví. Nesmí se pokládat za konečný produkt připravený k odeslání do světa.
Podniky potřebují pomoci svým zaměstnancům rozvíjet dovednosti kritického myšlení pro kontrolu výstupů AI, radí Kurtzman. Je potřeba vytvořit zpětnovazební smyčku, jež zahrnuje řadu uživatelů, kteří mohou upozornit na některé možné problémy při jejich výskytu.
„Společnosti chtějí vidět zlepšení produktivity,“ upozorňuje. „Doufají však také, že toto zlepšení bude přesahovat čas potřebný k vyřešení jakýchkoli problémů, které by se mohly při používání GenAI vyskytnout. Nepůjde to tak hladce, jak by si všichni přáli, a všichni to víme.“
Společnosti se na tuto cestu už vydaly a začaly zvyšovat datovou gramotnost svých zaměstnanců jako součást své snahy stát se podnikem řízeným daty, uvádí Shimmin z Omdie.
Například ve společnosti Insight vytvořili šéfové IT a firemní manažeři zásady pro generativní AI pro svých čtrnáct tisíc globálních zaměstnanců. Výchozím bodem je bezpečný, firmou schválený nástroj generativní AI, který může používat každý – jde o instanci ChatGPT provozovanou v privátním cloudu Azure.
Díky tomu zaměstnanci vědí, kde lze pracovat bezpečně, popisuje Orlandini. „Pusťte se do toho a používejte to, protože jsme ověřili, že je to bezpečné prostředí.“
U všech ostatních nástrojů, které mohou zaměstnanci používat a kde mohly být přidané funkce generativní AI, firma Insight upozorňuje na potřebu opatrnosti a zákaz sdílení soukromých informací.
„Pokud jsme vám nedali svolení, chovejte se ke každému z nich jako ke Twitteru, Redditu či Facebooku,“ upozorňuje Orlandini. „Nikdy totiž nevíte, kdo nakonec vámi zadaná data uvidí.“
Bezpečnostní nástroje
Nepovolené používání generativní umělé inteligence je součástí širšího problému s nedovolenými službami SaaS – a jsou s tím spojené i stejné problémy. Pro společnosti je těžké vysledovat, které aplikace zaměstnanci používají a jaké jsou bezpečnostní důsledky.
Podle zprávy State of SaaSOps 2023 společnosti BetterCloud se přibližně dvě třetiny všech aplikací SaaS používají v podniku bez povolení. Existují však produkty kybernetické bezpečnosti, které dokážou sledovat či blokovat přístup zaměstnanců ke konkrétním aplikacím nebo webům SaaS a zamezí i odesílání citlivých dat na externí weby a aplikace.
- Nástroje CASB (Cloud Access Security Broker) mohou společnostem pomoci chránit se před nepovoleným používáním aplikací SaaS. V roce 2020 patřily mezi nejlepší dodavatele v tomto oboru společnosti Netskope, Microsoft, Bitglass a McAfee (nyní SkyHigh Security).
Existují samostatní dodavatelé CASB, ale funkce CASB bývají také součástí platforem SSE (Security Service Edge) a SASE (Secure Access Service Edge).
Pro společnosti je nyní vhodná doba, aby si promluvily se svými dodavateli CASB a zeptaly se, jak sledují a blokují jak samostatné nástroje GenAI, tak i nástroje zabudované do aplikací SaaS.
„Manažerům bezpečnosti radíme, aby používali nástroje pro sledování webového provozu, a mohli tak zjistit, kam se lidé připojují, a v případě potřeby aby mohli nežádoucí připojení zablokovat,“ popisuje Wong z Gartneru. Samozřejmě ale nechcete zavádět příliš velká omezení, aby neutrpěla produktivita, dodává.
- Nástroje DLP (Data Loss Prevention) mohou společnostem pomoci zabránit únikům citlivých dat. Existují i samostatné produkty, ale funkce DLP také bývají součástí řešení zabezpečení e-mailů, SSE (Security Service Edge), SASE (Secure Access Service Edge) a platforem pro ochranu koncových bodů.
Dodavatelé DLP se už také začínají zabývat generativní AI. Například Forcepoint DLP slibuje, že pomůže podnikům kontrolovat, kdo má přístup k nástrojům GenAI, zabrání odesílání citlivých souborů, a dokonce i vkládání citlivých informací.
Podle zprávy společnosti Netskope vydané vloni v červenci už mnoho oborů začíná používat takové nástroje k zabezpečení generativní umělé inteligence. Například ve finančních službách téměř pětina společností blokuje ChatGPT, na druhou stranu téměř totožný podíl používá nástroje DLP. Ve zdravotnictví jsou tato čísla podobná – 18 % a 21 %.
Je zatím příliš brzo na odhady, do jaké míry budou tyto nástroje fungovat pro vestavěnou generativní AI, protože způsob, jakým se AI integruje do podnikových aplikací či řešení pro produktivitu, se stále vyvíjí.
Míra, do jaké mohou tyto umělé inteligence přistupovat k citlivým údajům, se navíc může lišit nejen u jednotlivých řešení, ale také v průběhu času.
GenAI pro podniky
Vyřešení nepovoleného využívání nástrojů generativní AI vyžaduje přístup typu cukr a bič. Zaměstnancům nestačí vysvětlit, proč jsou některé případy GenAI rizikové a příslušné nástroje začít blokovat.
Pracovníci potřebují mít bezpečné, schválené nástroje generativní umělé inteligence, které mohou používat. V opačném případě – pokud je tato potřeba dostatečně velká – přijdou na způsob, jak blokace obejít tím, že si najdou aplikace, jichž si oddělení IT dosud nevšimlo, nebo pro přístup k takovým aplikacím použijí osobní zařízení.
Například většina nástrojů pro generování obrázků pomocí AI je vytrénovaná na pochybných datech a neposkytuje uživatelům žádné bezpečnostní záruky.
Ale například Adobe vloni v létě oznámilo, že k trénování svých nástrojů generativní AI (Firefly) používá výhradně plně licencovaná data a že k trénování její AI se nepoužil žádný obsah dodaný uživateli.
Tato společnost navíc tvrdí, že také plánuje nabídnout svým podnikovým uživatelům odškodné pro případy, že by došlo k soudním sporům týkajícím se duševního vlastnictví v souvislosti s výstupem Firefly.
O něco později něco podobného nabídl i další gigant v tomto oboru, tedy Shutterstock. Ten podle svých slov používá pouze plně licencované obrázky k trénování své AI a na podzim oznámil kompenzační poplatky pro umělce, jejichž obrázky se používají pro tréninková data.
Shutterstock prý už odškodnil „stovky tisíc umělců“ a plánuje vyplatit další miliony dolarů.
Podobně se v případě generování textu některé platformy zaměřené na podniky usilovně snaží vytvářet systémy, které mohou firmám pomoci cítit se bezpečně, protože jejich data nebudou unikat k dalším uživatelům.
Například služba Azure OpenAI od společnosti Microsoft slibuje, že zákaznická data se nebudou používat k trénování jejích základních modelů a tato data jsou chráněná mechanismy podnikové úrovně pro zajištění dodržování předpisů a zabezpečení.
Některé organizace využívající umělou inteligenci zaměřenou na text začaly podepisovat smlouvy s poskytovateli obsahu, aby získaly plně licencovaná tréninková data.
Například OpenAI uzavřela dohodu s americkou tiskovou agenturou Associated Press, aby získala přístup k části jejího archivu textů. Tyto snahy se však stále ještě nacházejí v plenkách.
Nástroje podnikové úrovně pro produktivitu, které přidávají funkce generativní umělé inteligence – např. Microsoft 365 Copilot – pravděpodobně budou disponovat dobrou ochranou dat, odhaduje McCurdy, technologický ředitel společnosti Insight.
„Pokud to dělají správně, použijí k ochraně vašich informací všechna stejná opatření a nástroje, které mají dnes,“ popisuje.
Někteří dodavatelé se už dostali do problémů se svými zásadami ochrany soukromí a zabezpečení v případě generativní AI. Například Zoom aktualizoval své podmínky služby, aby oznámil, že může využívat videohovory zákazníků k trénování svých modelů.
Po veřejném pobouření tato společnost od tohoto kroku ustoupila a dnes říká, že se žádná z těchto informací nepoužívá k trénování jejích modelů AI.
Vlastníci a správci účtů si navíc mohou vybrat, zda povolí, nebo zakážou funkci shrnutí schůzek poháněnou umělou inteligencí.
Další dodavatelé se snaží takovému problému předejít. Například služba Grammarly, která používá pro svou generativní AI řešení OpenAI, prohlašuje, že u ní jsou data zákazníků izolovaná, aby informace neunikaly od jednoho uživatele k dalšímu, a uvádí, že ani partneři a třetí strany nepoužívají k trénování AI žádná zákaznická data.
Pokračující komplikace
Ne všichni dodavatelé však budou sdělovat, odkud pocházejí jejich tréninková data nebo jak jsou zabezpečená zákaznická data.
Klienti musejí být schopní porozumět tomu, jak bude konkrétní AI interagovat s jejich daty, upozorňuje Jason Wong, analytik Gartneru.
„Je však těžké dosáhnout takové úrovně transparentnosti,“ dodává. Dokud nebudou zavedené předpisy, mohou se organizace sice snažit získat informace od svých dodavatelů, ale měly by být připravené na určitý odpor z jejich strany.
S aplikacemi pro produktivitu, které mají integrované funkce generativní umělé inteligence, se věci mohou ještě více zkomplikovat, dodává. „V integrovaném řešení se bude pravděpodobně používat spousta různých modelů“.
V ideálním případě by všichni dodavatelé softwaru poskytli zákazníkům úplný seznam použitých softwarových komponent (SBOM, Software Bill Of Materials), dále potřebné informace o používaných modelech, o způsobu jejich trénování a také informace o tom, jak se chrání zákaznická data.
„Už se o tom začíná diskutovat, ale bude to mimořádně obtížné,“ tvrdí Cunningham ze společnosti Forrester.
„Je problém přimět tradiční dodavatele, aby to dělali s běžným softwarem. Pokud jste dostatečně velký zákazník, můžete o to požádat, ale pokud budete chtít podrobnosti, je dost nepravděpodobné, že by měli vše potřebné, protože je to všechno nové a složité.“
Bezpečnostní tým se často ani nemusí dozvědět, že konkrétní jimi používaná aplikace má nyní novou funkci využívající generativní AI. „Většina lidí, se kterými mluvím, má vážné starosti, když se s tím snaží vypořádat. Došlo k otevření Pandořiny skříňky.“
Pokud bude mít integrovanou AI veškerý software, budou muset společnosti přezkoumat celé své softwarové portfolio, varuje. „A to je vážný problém.“
Organizace sice mohou zablokovat všechno, ale to by bylo příliš necitlivé řešení a vážně by to mohlo poškodit produktivitu pracovních týmů, upozorňuje.
Je proto nezbytné vzdělávat zaměstnance ohledně rizik a odpovědností při používání generativní umělé inteligence.
„V podnicích je zcela namístě prohlásit: ‚Můžete to používat doma, ale pokud byste tyto nástroje použili nesprávným způsobem, potenciálně tím ohrožujete společnost i svou práci,‘“ dodáváCunningham.
Tento příspěvek vyšel v Computerworldu 2/2024.
Computerworld si můžete objednat i jako klasický časopis. Je jediným odborným měsíčníkem na českém a slovenském trhu zaměreným na profesionály v oblasti informačních a komunikačních technologií (ICT). Díky silnému zázemí přináší aktuální zpravodajství, analýzy, komentáře a přehledy nejnovejších technologií dříve a na vyšší odborné úrovni, než ostatní periodika na tuzemském trhu.
Obsah Computerworldu je určen odborníkům a manažerům z firem a institucí, kteří se podílejí na rozhodovacím procesu při nákupu ICT technologií. Jednotlivá čísla si můžete objednat i v digitální podobě.
Chcete si článek přečíst celý?
Tento článek je součástí exkluzivního obsahu pouze pro odběratele našeho newsletteru.
Přihlaste se k odběru newsletteru a my vám do mailu pošleme odkaz na celý článek.