AI agenty: Transformují firemní procesy, ale zvyšují rizika

30. 12. 2024

Sdílet

 Autor: Radan Dolejš s podporou AI
Chatboty zahálejí, když čekají, až jim někdo položí dotaz. Naopak AI agenty jsou proaktivní, mohou jednat autonomně a přizpůsobit se svému prostředí. A když navíc z více AI agentů vzniknou agentní frameworky, potenciální síla této technologie exponenciálně roste. S tímto nárůstem síly a zvýšením složitosti ale také stoupají rizika a nezbytnější jsou i důkladné kontroly.

Podle společnosti Gartner nemusí být agent modelem umělé inteligence (AI, Artificial Intelligence). Může to být také softwarový program nebo jiná výpočetní entita či robot.

Zatajujete před šéfy, že vám v práci pomáhá umělá inteligence?

Když se zkombinuje více nezávislých, ale interaktivních agentů, z nichž je každý schopný vnímat prostředí a vykonávat určité akce, získáte multiagentní systém.

Ano, podniky už je zavádějí. Například laboratoř tryskových pohonů (Jet Propulsion Laboratory) vesmírné agentury NASA používá multiagentní systémy, aby zajistila, že její čisté prostory zůstanou opravdu čisté, aby nic nekontaminovalo letový hardware určený pro jiné planety.

Od roku 2018 používá NASA agenty v podobě miniaturních počítačů Raspberry Pi, na kterých běží biologií inspirované neuronové sítě a modely časových řad jako základ spolupracující sítě senzorů.

„Nešlo jen o jedno měření částic,“ popisuje Chris Mattmann, někdejší ředitel technologií a inovací NASA JPL. „Bylo to mnoho měření, kde agenty kolektivně rozhodovaly, zda je, či není kontaminantů příliš mnoho.“

Předchozí špičkové senzory stály desítky tisíc dolarů, tvrdí Mattmann, který je nyní ředitelem pro data a AI na americké univerzitě (UCLA). Měly ale podle něj mimořádně vysokou citlivost měření.

Nový multiagentní systém naopak disponoval senzory, které bylo možné postavit za pouhé stovky dolarů, ale nebyly tak citlivé jako ty dražší.

Autonomní AI agenty Microsoftu: Nová éra automatizace podnikových procesů je tady! Přečtěte si také:

Autonomní AI agenty Microsoftu: Nová éra automatizace podnikových procesů je tady!

„Způsob kompenzace této citlivosti spočíval ve spolupráci a sdílení dat a znalostí tak, jak by to dělal agent,“ popisuje. Je to systém, který se používá dodnes. Vývoj umělé inteligence však znamená, že agentní systémy lze nyní použít pro širší řadu problémů.

Zásadní změna podle Mattmanna nastala v okamžiku, kdy tyto systémy přestaly mít jako základ pravidla, statistiky a prahové hodnoty a začaly využívat sílu hlubokého učení (DL, Deep Learning) a hlubokého zpětnovazebního učení (DRL, Deep Reinforcement Learning), které přinášejí neuronové sítě.

„Systémy jsou zásobované daty a trénují se, přičemž se následně postupně samy zlepšují,“ vysvětlujeMattmann.

Přidání chytřejší AI ale samozřejmě zvyšuje i riziko. „Přinejmenším v případech technologií jako ChatGPT, DALL-E 3 a Midjourney probíhá neustálá interakce s lidmi,“ připomíná.

V případě agentní AI existuje potenciál pro autonomní rozhodování. „Velké riziko spočívá v tom, že když tyto systémy nasadíte do ostrého provozu, vyřadíte lidi z rozhodovacího procesu.“

NASA však není jediný subjekt, který tyto rané druhy multiagentních systémů nasazuje – společnosti, které se zabývají provozem a logistikou, podobné technologie používají už roky.

Video ke kávě

Máte čas na rychlé a informativní video?

„Pojem agentů je ve skutečnosti velmi starý,“ potvrzuje Anand Rao, profesor umělé inteligence na Carnegie-Mellonově univerzitě.

„Na multiagentních systémech jsme pracovali už v 80. letech. Stavěli jsme systémy pro raketoplán, který byl pro jeden systém příliš složitý.“ Postupem času se agenty staly samostatnějšími a jednaly na základě cílů a úkolů, dodává Rao.

Dále je zde Hughes Network Systems – tento poskytovatel satelitní komunikace a spravovaných služeb využívá agentní AI už mnoho let, popisuje Dan Rasmussen, viceprezident této společnosti a šéf severoamerické podnikové divize.

Se svým týmem ji podle svých slov používá k řešení problémů s degradací služby. „Do našich algoritmů neustále vkládáme statistiky ze sítě a ze zařízení zákazníků, což umožňuje přizpůsobit se měnícím se podmínkám a identifikovat anomálie,“ popisuje.

V poslední době začala společnost Hughes vyvíjet software pro automatizaci nasazení aplikací na cloudové platformě společnosti Google a k vytváření potrubí CI/CD, přičemž při generování kódu využívá právě AI agenty.

„Naším cílem je analyzovat protokoly a metriky a propojit je se zdrojovým kódem, abychom získali přehled o opravách kódu, zranitelnostech, problémech s výkonem a o bezpečnostních problémech,“ tvrdí Rasmussen.

Společnost Hughes již dokončila úspěšné ověření konceptu pro tyto případy použití a nyní je vyvíjí do podoby produktu.

Tato společnost také vyvinula své vlastní interní agentní AI nástroje a používá různé agentní frameworky pro různé projekty včetně platformy Microsoft AutoGen a zkoumá platformy crewAI a LlamaIndex.

„Naše firma používá tyto nástroje k podpoře provozu sítí obsluhujících více než jeden milion vzdálených uzlů,“ popisuje Rasmussen.

AI zlikviduje pracovní místa, ale také vytvoří půl miliardy nových Přečtěte si také:

AI zlikviduje pracovní místa, ale také vytvoří půl miliardy nových

Zpočátku tyto nástroje jen vytvářely doporučení pro lidi, kteří si je mohli prohlédnout a podle nich jednat. Po několika měsících pozorování tohoto systému Hughes ale povolil automatický provoz a reportování implementovaných změn.

„Pro všechna nová vylepšení používáme stejný proces kontroly,“ dodává Rasmussen.

Existují však alarmy, při jejichž výskytu se zastaví automatizované chování – pokud například počet zjištěných anomálií nebo udělaných náprav přesahuje statistické normy. Automatizace tak nezačne dělat neplechu a nepoškodí chování sítě.

Rozmach agentní AI

Podle letošního průzkumu společnosti Capgemini mezi více než tisícovkou vedoucích pracovníků ve velkých podnicích už každá desátá organizace používá AI agenty, více než polovina je plánuje používat v příštím roce a 82 % plánuje jejich integraci během příštích tří let.

Navíc 71 % respondentů uvedlo, že AI agenty zvýší automatizaci jejich pracovních toků, podle 64 % firem se zlepší služby zákazníkům a jejich spokojenost a 57 % uvedlo, že potenciální zlepšení produktivity převáží nad riziky.

Kromě toho ze společností, které plánují používat AI agenty, bylo největším případem využití nasazení ve vývoji softwaru, ke generování, hodnocení a přepisování kódu – 75 % respondentů uvedlo, že plánují používat AI agenty právě tímto způsobem.

Je pochopitelné, že je vývoj softwaru hlavním případem využití agentní AI, prohlašuje Babak Hodjat, technologický ředitel pro AI ve společnosti Cognizant.

„Většina z nás, kdo působíme v oblasti AI, jsme softwaroví inženýři,“ prohlašuje. „Softwarové inženýrství se také snáze kontroluje, takže můžete mít částečně řízené systémy, které si mohou navzájem kontrolovat svou práci. To je první, co se řeší.“

Více odpovědnosti

Filmové a televizní studio Legendary Entertainment musí chránit velký rozsah duševního vlastnictví a využívá pro to AI agenty, říká Dan Meacham, šéf zabezpečení informací v této společnosti.

„V našich bezpečnostních programech využíváme agentní AI v různých vertikálách,“ popisuje. Například AI agenty používají zpravodajské informace open source k pátrání po únicích filmů a pirátství na sociálních sítích a na dark webu.

Odmítl uvést, které konkrétní frameworky se použily k vybudování těchto systémů, ale zmínil, že využívají podnikové řešení podobné OpenAI, které umožňuje automatizaci některých firemních procesů.

Co se však týče bezpečnosti, agentní AI je dvousečná zbraň s příliš mnoha riziky, které nelze spočítat, upozorňuje. „Nenechává nás to v klidu.“

Mnoho hrozeb je stejných jako v případě generativní AI, protože je to právě GenAI, která pohání agentní systémy. To znamená, že se Meacham obává úniku tvůrčího obsahu a materiálů prostřednictvím AI aplikací nebo že by AI mohla generovat obsah porušující autorská práva.

Potom ještě existuje riziko injektáže škodlivého kódu, kdy je kód skrytý v dokumentech čtených AI agentem a AI jej pak spustí.

„Tento vektor útoku není nový, protože je to stejné jako v případě útoku SQL injection nebo útoku prostřednictvím procedury uložené v databázi,“ upozorňuje Meacham. Podle něj se ale objevují nové metody ošetření, které využívají vzory typu DLP (prevence úniků dat) k omezení nebo vyloučení typů dat z učení.

Některá nově vznikající řešení navíc o sobě tvrdí, že jak se moduly učí a bobtnají, kontrolují instrukční sady, aby pomohly chránit před injektážemi, halucinacemi a škodlivým kódem.

„Do prvního čtvrtletí roku 2025 bychom měli mít v ochraně umělé inteligence několik zajímavých kandidátů, kteří by měli nabídnout více než jen současná vylepšení pomocí DLP a kontroly kódu, navrstvená před nebo nad modely LLM,“ dodává Meacham.

Sinclair Schuller, konzultant společnosti EY, uvádí, že existuje několik hlavních strategií pro zabezpečení multiagentní AI kromě ochran již použitých pro základní modely GenAI.

Například agent může mít konkrétní osobnost, prohlašuje. „Je daný agent dlouhodobý, nebo krátkodobý? Smí spolupracovat s dalšími agenty?“

Multiagentní systémy mohou také používat konsenzus, žádat agenty na stejné úrovni o posouzení práce ostatních nebo využívat soupeřící agenty ke kontrole původní odpovědi, k vytvoření jiné a porovnání obou výsledků.

Podniky také musejí přemýšlet o tom, jak budou tyto systémy testovat, aby ověřily, zda fungují tak, jak mají. „To je to nejtěžší,“ tvrdí Schuller.

Agentní systémy se mohou také nastavit tak, že rozsah toho, co mohou jednotlivé agenty dělat, je omezený a lidé jsou v procesu zapojení jako nezbytný prvek, dodává.

Pojišťovna Aflac je jednou ze společností, které dohled lidí nad chováním AI zachovávají a nenechávají pracovat AI zcela autonomně.

To znamená, že lidé musejí být v procesu stále přítomní, prohlašuje Shelia Anderson, tamější šéfka IT, a to i přesto, že tato společnost zavádí plán zrychleného prototypování pro projekty agentní umělé inteligence.

Mezi tyto projekty patří i takové, které zjednodušují služby zákazníkům a optimalizují pracovní postupy zaměstnanců. „Pro agentní AI používáme stejný přístup, jaký jsme zavedli pro generativní AI a další nové technologie,“ prohlašuje.

To znamená, že projekty se hodnotí z hlediska míry rizika, které představují. Případy použití s nízkým rizikem zahrnují aplikace typu back-office či podporu procesů a ovlivňují především způsob, jakým lidé dělají svou práci.

Popularita Pythonu raketově roste – na GitHubu už je nejpopulárnějším Přečtěte si také:

Popularita Pythonu raketově roste – na GitHubu už je nejpopulárnějším

Střední rizika jsou ta, která zahrnují interní data a interní použití. Projekty s vysokým rizikem pak zahrnují externí uživatele nebo vysoce citlivé údaje.

Aflac je ale stále na začátku procesu, přičemž inovační tým v současné době vyhodnocuje případy použití, které následně v krátké době přezkoumá pomocí ověření konceptu. To zahrnuje posouzení několika modelů a platforem pro agentní AI včetně varianty interního vývoje svépomocí.

„Naše strategie vyšší úrovně umělé inteligence nás vede ke specializovanější podobě AI, která by mohla zahrnovat různé modely a platformy v závislosti na tom, jak zamýšlíme aplikovat tuto technologii v hodnotovém řetězci,“ popisuje Anderson.

Dalším rizikem agentní AI je, že může potenciálně ovlivnit zapojené lidské pracovníky, protože dokáže zvládnout složitější firemní procesy.

„Aspekty dopadu na pracovníka a vyšší produktivita jsou obojím – příležitostí i rizikem,“ tvrdí Anderson. Plánem firmy je přesunout znalostní pracovníky na úkoly s vyšší hodnotou nebo využít AI k tomu, aby jim pomohla lépe se rozhodovat a zlepšit zákaznickou zkušenost.

„Přestože jsme nadšení z výhod, které nám může AI v budoucnu poskytnout, nadále se zaměřujeme na podporu našich zákazníků osobním přístupem, který očekávají a často i potřebují,“ dodává Anderson.

Agentní AI v raných fázích

Aflac není jedinou společností, která svou cestu s agentní AI právě začíná. Například společnost Centric Consulting má jako zákazníka středně velkou regionální pojišťovnu specializující se na pojištění majetku a úrazů.

Ta využívá dva různé dodavatele ke shromažďování e-mailů zákazníků, souvisejících s pojistnými událostmi a ke zpracování těchto dokumentů.

Zmíněná společnost platila půl milionu dolarů ročně jen na licenčních poplatcích a stále s tím bylo spojené hodně manuální práce,“ popisuje Joseph Ours, ředitel pro řešení AI ve společnosti Centric.

Nahrazení procesu agentním systémem by tedy firmě mohlo ušetřit přibližně  milion dolarů ročně, takže se vyplatí investovat do nákladů na vývoj namísto čekání, zda některý z oněch dodavatelů vylepší své produkty.

„Ti dva dodavatelé byli velcí a je nepravděpodobné, že by jeden koupil druhého, takže nebylo reálné čekat synergii,“ prohlašuje Ours.

Společnost Centric tedy vytvořila vlastní agentní framework s back-endem nezávislým na konkrétním LLM, který pohání agenty. Dnes tato platforma podporuje OpenAI, OpenAI v Azure, Google Gemini a Anthropic Claude.

Například model OpenAI GPT-4o, který je multimodální, se používá ke zpracování naskenovaných dokumentů a obrázků, jako jsou fotografie škod.

A když by bylo použití modelu generativní AI zbytečně složité, jako například k rozebrání e-mailu na jednotlivé části nebo k vyhledání čísel pojistných smluv, platforma namísto toho použije software nebo volání funkcí vhodných k takové činnosti.

Tento systém už úspěšně prošel fází ověření konceptu a nyní je v pilotním provozu.

„Ověření konceptu nevyužívalo bezpečnostní opatření a prvky ke zlepšení zákaznické zkušenosti,“ konstatuje Ours. „Pracujeme na tom, abychom to doplnili.Cílem by mělo být realizovat pilotní projekt rozfázovaně.Chceme zajistit, aby vše dopadlo tak, jak očekáváme.“

Když systém plně pochopí, co přichází, co je s tím nutné udělat a kam to má poté směřovat, bude fungovat autonomně, popisuje Ours. Pokud v kterémkoli okamžiku něčemu nerozumí nebo nemůže najít správný záznam, dojde k předání k manuální kontrole.

K dispozici budou také nástroje pro zaznamenávání metrik přesnosti a preciznosti i k ochraně proti případnému posunu (driftu). Systém by se měl nasadit do produkčního prostředí koncem tohoto roku společně se školením zaměstnanců a dalšími procesy řízení změn.

„AI je stejně převratná jako průmyslová revoluce pro zemědělské společnosti,“ prohlašuje Ours. Implementace by se podle něj neměla uskutečňovat bez pomoci potřebných nástrojů, jinak to lidé nepřivítají a výsledky nebudou optimální.

Atlantic Health System, velká nezisková síť zdravotní péče, také začala vytvářet framework pro využití agentní AI jako součást své strategie automatizace.

„Zatím vytváříme pracovní postupy pomocí RAG – Retrieval Augmented Generation,“ popisuje Sunil Dadlani, tamější viceprezident společnosti a šéf pro IT a digitální transformaci. To umožňuje obohatit interakci s LLM o relevantní kontext.

„Ověřujeme koncept agentní AI jako způsob rozšíření typů pracovních postupů, které lze podporovat flexibilnějším, ale přesto úkolově zaměřeným způsobem.“

Tato společnost také zkoumá možnosti využití agentní AI v rámci ITSM (IT Service Management).

Vidíme obrovskou příležitost jak ve využití této technologie ke zlepšení našich interních IT procesů, tak ve fungování jako zkušební půda pro budování důvěry v tuto technologii, vysvětluje Dadlani.

Nadšení z genAI střídá deziluze Přečtěte si také:

Nadšení z genAI střídá deziluze

Aby toho dosáhla, využívá Atlantic Health svou vlastní interní digitální platformu pro podporu procesů a zkoumá využití frameworku LangChain k orchestraci toku dat mezi modely LLM ve spojení s platformou Amazon Bedrock. To by mohlo sloužit jako základ agentního AI frameworku společnosti.

„Využíváme také Dialogflow na platformě Google Cloud a začínáme diskutovat o tom, jak bychom mohli využít Microsoft Bot Framework,“ popisuje.

Cena za pokrok

Agentní AI nabízí ve zdravotnictví mnoho potenciálních výhod, ale také přináší významná rizika, která je nutné pečlivě řídit. Atlantic Health už má zavedený framework k zajišťování bezpečnosti své generativní AI.

Zahrnuje celou řadu aspektů včetně datových postupů, robustního zabezpečení, lidského dohledu a transparentní správy v kombinaci s nepřetržitým monitorováním, testováním, strukturou odpovědností a dodržováním právních rámců.

Systémy agentní AI jsou však navržené tak, aby fungovaly s určitou úrovní autonomie, připomíná Dadlani.

„Bezpečnost pacientů by mohla být ohrožená, pokud se AI potýká se složitými případy nebo by zpozdila kritické zásahy,“ vysvětluje.

Dokonce i velké technologické společnosti jsou ve většině případů stále daleko od významného nasazení těchto technologií.

„Věříme, že multimodální agentní AI je budoucnost,“ prohlašuje Caiming Xiong, viceprezident pro výzkum a využití AI ve společnosti Salesforce.

Multimodální AI znamená, že umělá inteligence pohánějící agenty dokáže zpracovávat více než jen text. Již existují platformy GenAI, které umějí zpracovat obrázky, zvuk, a dokonce i video. „Existuje mnoho informací, které nemůžete popsat jen textem,“ vysvětluje Xiong.

Systémy multiagentní AI jsou však stále v experimentálních fázích nebo se používají velmi omezeně. Jedním z interních případů využití agentní AI ve společnosti Salesforce je vývoj softwaru.

„Používáme svůj vlastní model a agentní framework, který jsme si sami vytvořili,“ popisuje Xiong.

„Nemyslím si však, že tím nahradíme naše vývojáře.Nemůžete zcela důvěřovat kódu vyvinutému umělou inteligencí, ale máme v úmyslu zlepšit produktivitu i kvalitu a agentní asistenty pro psaní kódu mohou pomoci našim juniorním vývojářům se zvyšováním profesionality.“

Existuje také agentní framework, který dokáže shromáždit informace z různých zdrojů s cílem odpovídat otázky, řešit problémy zákazníků a navrhovat další kroky, popisuje.

Zde používáme jako backendové modely OpenAI GPT 4 a GPT 3.5. Aby se dosáhlo žádoucího chování a výstupů agentní AI, využívá Salesforce všechna ochranná opatření, která již má pro GenAI.

„Analyzujeme každou otázku a odpověď,“ prohlašuje Xiong. „Rozebíráme toxicitu, zaujatost a hledáme případy injektáže promptů.“

Kromě toho existují kontroly zabezpečení a přístupu, aby se zajistilo, že se agenty nesnaží dostat k informacím, které by neměly mít k dispozici.

Microsoft avizuje AI tlumočníka, který dokáže překládat v reálném čase Přečtěte si také:

Microsoft avizuje AI tlumočníka, který dokáže překládat v reálném čase

„Máme také ochranná opatření zajišťující, že akce agenta patří do povoleného rozsahu,“ popisuje. „Tyto komponenty máme integrované přímo do agentského frameworku, abychom zajistili, že se nebude dít nic špatného.“

To však neznamená, že to bude dokonalé, takže mají i lidský dohled. Člověk může být například požádán, aby potvrdil, že se má udělat konkrétní akce.

„Na straně vývoje máme týmy, které dělají příslušná vyhodnocení, než se něco dostane do produkčního prostředí,“ prohlašuje.

Každý nový systém musí odpovídat ochranným opatřením, která společnost Salesforce vytvořila, potvrzuje Juan Perez, šéf IT této firmy.

„V našich řešeních využívajících GenAI jsme vybudovali celou vrstvu důvěry,“ popisuje Perez. „Navíc máme zastřešující bezpečnostní postupy a postupy pro udržení soukromí, které řídí vše, co děláme.“

Dodává, že si sestavili radu pro AI, která se skládá z lidí z celé společnosti a obsahuje zástupce z oblastí práva, soukromí, etického využívání AI, zpracování dat, technologů a firemních uživatelů.

Přitom také existuje možnost, že multiagentní systémy mohou být ve skutečnosti bezpečnější než jednotlivé monolitické modely generativní AI, upozorňuje Xiong.

„Pokud máte jen jeden systém a dojde k jeho napadení, byla by to pro společnost obrovská katastrofa,“ vysvětluje. „Pokud však provozujete sto nebo tisíc agentů a dojde k úspěšnému napadení jednoho z nich, zpravidla se neděje nic vážného.“

Navíc každý agent lze optimalizovat pro jeho specifické úkoly. Je-li model LLM optimalizovaný pro konkrétní účel, může utrpět výkon v jiných oblastech, ale v případě více agentů lze jednu činnost izolovat a stále zlepšovat.

Agenty v produkčním prostředí

Většina společností nasazujících agenty AI to nedělá jako součást kompletního procesu agentní AI, popisuje Craig Le Clair, analytik společnosti Forrester.

„Právě jsem mluvil se zástupci třiceti bank a investičních společností a všichni říkali totéž: ‚Nejsme připraveni předat generativní AI celé procesy.‘“ 

Le Clair tvrdí, že namísto toho podniky přidávají AI agenty k existujícím hlavním procesům, kde je vše pod kontrolou tradičního procesního agenta.

Firemní proces může například vyžadovat vygenerování e-mailu na základě některých informací a generativní AI lze použít k vytvoření více přizpůsobené zprávy, přičemž ostatní AI agenty se mohou zabývat dalšími dílčími záležitostmi.

Nejpokročilejší úroveň komplexních uzavřených autonomních systémů, což by byl firemní ekvivalent autonomního automobilu řídícího sebe sama, zatím neexistuje, prohlašuje Le Clair.

Některé společnosti však tvrdí, že se k tomuto bodu přibližují. Jednou z firem se systémy agentní AI je Indicium, globální poradenská společnost zaměřená na data. Její AI agenty slouží interním uživatelům i klientům, prohlašuje Daniel Avancini, ředitel pro data v této společnosti.

Agenty se používají k dotazování a křížové referenci na data z různých zdrojů včetně platforem Moodle, GitHub, Bitbucket, interních wiki nebo firemního datového skladu Snowflake. Používají generativní AI k interpretaci složitých otázek a k identifikaci nejrelevantnějších zdrojů dat.

„Jeden z našich agentů může například čerpat informace z naší interní wiki, porovnávat je s daty z našich úložišť kódů a poté je ověřovat s našimi analytickými daty, aby poskytoval komplexní odpovědi na firemní dotazy,“ popisuje Avancini.

„Některé naši pokročilejší agenty mohou skutečně vytvářet řešení založená na existujících procesech.“

Jeden jejich agent může například vytvořit orientovaný acyklický graf (DAG, Directed Acyclic Graph) v Airflow na základě popisu potřeb datového potrubí, což zahrnuje složité, vícekrokové úlohy.

Další agenty jsou stále v pilotních fázích včetně jednoho, který dokáže analyzovat repozitáře kódu a navrhovat optimalizace na základě osvědčených postupů a historických údajů o výkonu.

Primárním frameworkem pro vytváření těchto agentů je LangChain, uvádí Avancini. Indicium používá jeho komponentu LangGraph, která nabízí podrobnou kontrolu nad rozhodovacími procesy svých agentů, popisuje.

„Můžeme vytvořit graf, kde agent nejprve analyzuje dotaz uživatele, poté se rozhodne, které zdroje dat použije, vykoná potřebné dotazy, a nakonec syntetizuje informace do koherentní odpovědi,“ konstatuje.

„V každém kroku přitom můžeme implementovat rozhodovací body a záložní možnosti,“ dodává.

Pro pohon těchto agentů se preferují modely OpenAI a Anthropic, ale strategie nasazení je nezávislá na konkrétním cloudu, prohlašuje Avancini. „Naše agenty můžeme nasadit na AWS, Azure i Google Cloud v závislosti na konkrétních požadavcích projektu,“ popisuje.

„K těmto modelům přistupujeme buď přímo díky jejich rozhraní API nebo prostřednictvím cloudových služeb, jako jsou AWS Bedrock nebo Azure OpenAI.“

Pro monitorování a pozorovatelnost tato společnost využívá LangChain LangSmith, který jim umožňuje sledovat výkon, identifikovat úzká místa a rychle dělat iterace.

„V některých případech, zejména při rychlém prototypování nebo při práci s méně technicky založenými zainteresovanými stranami, používáme nástroje pro vizuální vývoj,“ uvádí Avancini.

„Například Azure AI Studio nám umožňuje vizuálně sestavit agenty a poté exportovat výsledky jako kód. To může být zvláště užitečné, když zkoumáme nové architektury agentů nebo předvádíme koncepty našim klientům.“

Ke zpracování požadavků na paměť pro systémy agentů používá Indicium vektorové databáze, jako je například Pinecone.

„Tyto databáze nám umožňují efektivně ukládat velká množství nestrukturovaných dat a klást vůči nim dotazy, což je nezbytné pro mnoho našich AI aplikací,“ prohlašuje.

Pro práci s nestrukturovanými dokumenty se pak používají nástroje jako LlamaParse, které pomáhají extrahovat smysluplné informace z různých formátů dokumentů.

Indicium také má vlastní konektory pro oblíbené platformy pro zasílání zpráv, takže mohou agenty lépe komunikovat s uživateli.

Tento příspěvek vyšel v tištěném Computerworldu 11/2024.

 

Computerworld si můžete objednat i jako klasický časopis. Je jediným odborným měsíčníkem na českém a slovenském trhu zaměreným na profesionály v oblasti informačních a komunikačních technologií (ICT). Díky silnému zázemí přináší aktuální zpravodajství, analýzy, komentáře a přehledy nejnovejších technologií dříve a na vyšší odborné úrovni, než ostatní periodika na tuzemském trhu.

Obsah Computerworldu je určen odborníkům a manažerům z firem a institucí, kteří se podílejí na rozhodovacím procesu při nákupu ICT technologií. Jednotlivá čísla si můžete objednat i v digitální podobě.