IBM nabídne transparentní AI – sama vysvětlí, jak rozhoduje

21. 9. 2018

Sdílet

 Autor: Fotolia @ willyam
Technologii Trust and Transparency, která podnikům přináší novou transparentnost do umělé inteligence, což jim umožní plně využít její sílu, představilo IBM.

Softwarová služba, která automaticky detekuje zaujatost a vysvětluje, jak umělá inteligence rozhoduje - jak probíhá rozhodnutí - běží na IBM Cloudu a pomáhá organizacím spravovat systémy umělé inteligence od široké škály průmyslových hráčů.

Pracovníci IBM budou také spolupracovat s podniky a pomohou jim využít nové softwarové služby. Navíc divize IBM Research uvolní do komunity open source nástroj pro detekci a zmírnění předsudků v oblasti umělé inteligence, který přináší nástroje a vzdělání, které povzbudí globální spolupráci při řešení předpojatosti v prostředí umělé inteligence.

„IBM vedla odvětví při vytváření zásad důvěry a transparentnosti pro vývoj nových technologií umělé inteligence," uvedlaBeth Smith, generální ředitelka divize Watson AI v společnosti IBM. „Je čas převést tyto zásady do praxe. Poskytujeme nové nástroje transparentnosti a kontroly umělé inteligence podnikům, které používají a čelí nejvíce potenciálnímu riziku z jakéhokoli chybného rozhodování."

Tento vývoj přichází na pozadí nového výzkumu IBM Institute for Business Value, který odhaluje, že zatímco 82% podniků zvažuje nasazení umělé inteligence, 60% se obává odpovědnosti a 63% nemá dostatek vlastních schopností k tomu, aby věrohodně řídili tuto technologii.

Nové funkce IBM Trust a Transparency v IBM Cloudu pracují s modely postavenými ze široké škály strojních učebních rámců a AI-build prostředí jako jsou Watson, Tensorflow, SparkML, AWS SageMaker a AzureML.

To znamená, že organizace mohou využívat těchto nových ovládacích prvků pro většinu populárních rámců umělé inteligence používaných podniky.

Softwarová služba může být také naprogramována tak, aby sledovala jedinečné rozhodovací faktory každého podnikového pracovního postupu, což umožňuje přizpůsobení konkrétnímu organizačnímu využití.

bitcoin_skoleni

Plně automatizovaná softwarová služba vysvětluje rozhodování a zjišťuje předpojatost v modelech umělé inteligence za běhu - jak jsou přijímána rozhodnutí - zachycování potenciálně nespravedlivých výsledků, jak se vyskytují. Důležité je také, že automaticky doporučí data, která se do modelu přidávají, aby pomohla zmírnit případné zkreslení, které zjistila.

Vysvětlení jsou uvedena v jednoduše srozumitelných termínech, které ukazují, které faktory vážily rozhodnutí. Rovněž záznamy o přesnosti, výkonnosti a spravedlivosti modelu umělé inteligence lze snadno sledovat a odvolávat z důvodů zákaznických služeb, z regulačních důvodů nebo z důvodů plnění požadavků - jako je např. shoda s GDPR.