Společnost OpenAI zahajuje provoz nové výzkumné oddělení pro vylaďování AI, které se zaměří na vývoj tréninkových technik, jejichž smyslem je zabránit superinteligentní AI – umělé inteligenci, která by mohla přechytračit člověka a stát se neslučitelnou s lidskou etikou – způsobit vážné škody.
Využíváte už některé z inovativních metod šifrování?
„V současné době nemáme řešení, jak potenciálně superinteligentní umělou inteligenci řídit nebo kontrolovat a zabránit jí, aby se vymkla kontrole,“ napsali Jan Leike a Ilya Sutskever v příspěvku na blogu společnosti OpenAI, která stojí za nejznámějším generativním jazykovým modelem ChatGPT. Dodali, že ačkoli se superinteligence může zdát vzdálená, někteří odborníci se domnívají, že by mohla být vyvinuta již v tomto desetiletí.
Současné techniky pro vyladění AI zahrnují posilování učení na základě zpětné vazby od člověka, ale Leike a Sutskever uvedli, že s tím, jak se systémy AI stávají chytřejšími než člověk, se již nelze spoléhat na to, že lidé budou na tuto technologii dohlížet.
„Současné techniky pro vylaďování AI se nedají použít pro superinteligenci. Potřebujeme nové vědecké a technické objevy,“ napsali.
Sutskever je spoluzakladatelem a hlavním vědeckým pracovníkem společnosti OpenAI a Leike je výzkumníkem v oblasti strojového učení. Nový výzkumný tým povedou společně a aby mohlo oddělení plnit své poslání, bude mít v příštích čtyřech letech přístup k 20 % výpočetní kapacity společnosti, aby mohlo vyvinout „automatizovaného výzkumníka na lidské úrovni pro vyladění“, který bude moct být rozšířen o dohled právě nad superinteligencí.
Aby ho bylo možné sladit s lidskou etikou, bude podle Leikeho a Sutskevera nutné zvolit třístupňový přístup: vyvinout škálovatelnou tréninkovou metodu, ověřit výsledný model a provést zátěžové testy celého systému.
„Očekáváme, že naše výzkumné priority se budou vyvíjet s tím, jak budeme do problematiky pronikat, a pravděpodobně projekt rozšíříme o zcela nové oblasti výzkumu,“ dodávají.
OpenAI uznává, že je třeba zmírnit potenciální škody způsobené umělou inteligencí
Není to poprvé, co OpenAI veřejně přiznala potřebu zmírnit rizika, která představuje neregulovaná umělá inteligence. V květnu podepsal generální ředitel společnosti Sam Altman otevřený dopis, v němž uvedl, že kontrola této technologie by měla být hlavní globální prioritou, protože vývoj AI by mohl vést až k apokalyptickým scénářům.
Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.
„Zmírnění rizika vyhynutí zapříčiněného umělou inteligencí by mělo být globální prioritou vedle dalších rizik celospolečenského rozsahu, jako jsou pandemie a jaderná válka,“ stálo v dopise. Společnost OpenAI má na svých webových stránkách také speciální sekci, kde má veřejnost přístup k materiálům souvisejícím s tím, co nazývá vývojem „bezpečné a zodpovědné AI“, spolu s chartou, která popisuje zásady, jimiž se při plnění svého poslání řídí. Ty se však z velké části týkají konceptu umělé obecné inteligence (AGI) – vysoce autonomních systémů, které předčí člověka ve většině ekonomicky hodnotných prací.
„Budeme se snažit přímo vytvořit bezpečnou a prospěšnou AGI, ale budeme také považovat své poslání za splněné, pokud naše práce pomůže ostatním dosáhnout tohoto výsledku,“ píše se v chartě, která byla zveřejněna už v roce 2018.
Computerworld si můžete objednat i jako klasický časopis. Je jediným odborným měsíčníkem na českém a slovenském trhu zaměreným na profesionály v oblasti informačních a komunikačních technologií (ICT). Díky silnému zázemí přináší aktuální zpravodajství, analýzy, komentáře a přehledy nejnovejších technologií dříve a na vyšší odborné úrovni, než ostatní periodika na tuzemském trhu.
Obsah Computerworldu je určen odborníkům a manažerům z firem a institucí, kteří se podílejí na rozhodovacím procesu při nákupu ICT technologií. Jednotlivá čísla si můžete objednat i v digitální podobě.