Nekontrolovaný vývoj umělé inteligence může být horší než jaderná válka

Jaan Tallinn, spoluzakladatel společnosti Skype, věří, že současný přístup k vývoji umělé inteligence (AI) se výrazně liší od toho, jaký zde byl v minulosti. Zatím prý nejsou potřeba nějaké regulace, vyloučené to ale není.

Nekontrolovaný vývoj umělé inteligence může být horší než jaderná válka


Východoevropský podnikatel Jaan Tallinn, který úzce spolupracuje s několika firmami zabývajícími se vývojem umělé inteligence a nezávislými výzkumníky skrze Future of Life Institute (FLI), jenž nedávno podpořili Elon Musk či Stephen Hawking, tvrdí, že za problémy s rozvojem umělé inteligence stojí – jako v mnaha jiných oblastech – financování. Pokud totiž firma přišla s nějakou pokrokovou technologií, získala od investorů dostatek finančních prostředků, avšak postupem času finanční zdroje vyschly.

„Současný přístup k vývoji AI je však jiný,“ uvedl Tallinn minulý týden v Londýně na konferenci, kde představoval novou IM aplikaci Fleep, kterou vytvořil spolu se svým kolegou ze Skypu Hennem Ruukelem.

Vyjádření Tallina přicházejí v době, kdy panují čím dál větší obavy z toho, že stroje jednou nahradí lidi jak na pracovním trhu, tak v jiných oblastech našeho života. Tallin uvedl, že skrze Future of Life chce spojit fyziky a filosofy, kteří se obávají toho, co se stane v dlouhém období, jakmile lidé „ztratí kontrolu nad atomy“ spolu s technickými společnostmi, které se zaměřují na kratší období a snaží se vymyslet způsoby, jakými by stroje lidem mohly více pomáhat.

Před bezhlavým vývojem AI varuje otevřený dopis zveřejněný v lednu představiteli Future of Life Institute. Podle něj musejí experti bezpečně a opatrně koordinovat a komunikovat pokrok v oblasti AI tak, aby bylo zaručené, že bude stále pod kontrolou lidí.

„Umělá inteligence má velký potenciál, avšak je nutné vyhnout se potenciálním rizikům,“ stojí v dopise. „Naše systémy umělé inteligence musí dělat pouze to, co chceme my.“ Dopis podepsali i experti z velkých technologických společností jako IBM, Google, Microsoft nebo Amazon.

Před nekontrolovaným vývojem AI, který „může být nebezpečnější než jaderné zbraně,“ sám již dříve varoval spoluzakladatel společností SpaceX a Tesla Elon Musk, který je spolu s hercem Morganem Freemanem a vědcem Stephenem Hawkingem členem poradního výboru FLI. Musk také přislíbil věnovat 10 milionů dolarů na výzkum vývoje AI ve FLI.

Na druhou stranu je podle Tallina je ještě příliš brzo na to, aby vznikla nějaká pravidla či regulace týkající se AI. „Myslím si, že je příliš brzy na to vytvářet konkrétní monitorovací mechanismy,“ uvedl Tallinn. „Mnohem důležitější je nyní dosáhnout v celém průmyslu a akademickém světě (ohledně dalšího vývoje AI) jasného konsenzu.“

Úvodní foto: © Michael Rubenstein - Harward University










Komentáře