Umělá inteligence by mohla zneškodňovat bomby, zlepšit dopravu, ale slouží i kyberzločincům. Jsou obavy a zákazy na místě?

4. 5. 2023

Sdílet

umělá inteligence, AI, válka, roboti Autor: Depositphotos

Check Point Research, výzkumný tým společnosti Check Point Software Technologies, upozorňuje, že umělá inteligence má potenciál stát se transformativní technologií, která může výrazně ovlivnit náš každodenní život.

Využíváte už ve firmě autonomní agenty postavené na bázi umělé inteligence?

„AI již ukázala svůj potenciál a může způsobit revoluci v mnoha oblastech, jako jsou zdravotnictví, finance, doprava a další. Dokáže automatizovat nudné úkoly, zvýšit efektivitu a poskytnout informace, které dříve nebylo možné. AI nám také může pomoci řešit složité problémy, lépe se rozhodovat, omezit lidské chyby nebo by si mohla poradit s nebezpečnými úkoly, například zneškodnit bombu, letět do vesmíru nebo zkoumat oceány. Ale zároveň vidíme masivní použití AI technologií i k vývoji kybernetických hrozeb,“ říká Pavel Krejčí, Security Engineer z kyberbezpečnostní společnosti Check Point Software Technologies.

Celkově lze říci, že rozvoj AI není jen dalším přechodným šílenstvím, ale teprve se ukáže, jak velký dopad bude mít na společnost.

Ačkoli se umělá inteligence používá již dlouho, rok 2023 si veřejnost bude pamatovat jako „rok AI“. Je důležité si uvědomit, že kolem této technologie je hodně povyku a některé společnosti mohou přehánět. Je potřeba mít realistická očekávání a nevnímat AI jako automatický všelék na všechny problémy světa.

Často slyšíme obavy, jestli se AI nepřiblíží lidským schopnostem nebo je dokonce nepřekoná. Předpovídat, jak vyspělá AI bude, je těžké, ale už nyní existuje několik kategorií. Současná AI se označuje jako úzká nebo „slabá“ AI (ANI – Artificial Narrow Intelligence). Obecná AI (AGI – Artificial General Intelligence) by měla fungovat podobně jako lidský mozek, myslet, učit se a řešit úkoly jako člověk. Poslední kategorií je superinteligence (ASI – Artificial Super Intelligence) a v podstatě jde o stroje, které jsou chytřejší než my.

Chcete dostávat do mailu týdenní přehled článků z Computerworldu? Objednejte si náš mailový servis a žádná důležitá informace vám neuteče. Objednat si lze také newsletter To hlavní, páteční souhrn nejdůležitějších článků ze všech našich serverů. Newslettery si můžete objednat na této stránce.

Pokud umělá inteligence dosáhne úrovně AGI, existuje riziko, že by mohla jednat sama za sebe a potenciálně se stát hrozbou pro lidstvo. Proto je potřeba pracovat na sladění cílů a hodnot AI s cíli a hodnotami člověka.

„I když AI může vzbuzovat obavy, je důležité si uvědomit, že vývoj pokročilé AI přináší mnoho výhod a může pomoci vyřešit některé z nejpalčivějších světových problémů, jako jsou změna klimatu, nemoci nebo chudoba,“ dodává Pavel Krejčí. „Pro zmírnění rizik spojených s pokročilou AI je důležitá spolupráce vlád, společností a regulačních orgánů a vývoj robustních bezpečnostních mechanismů, stanovení etických zásad a podpora transparentnosti a odpovědnosti při vývoji AI. V současné době existuje minimum pravidel a předpisů. Existují návrhy jako zákon o umělé inteligenci, ale nic z toho nebylo dosud schváleno a v podstatě se zatím vše řídí etickými kompasy uživatelů a vývojářů. Společnosti, které vyvíjejí a vydávají AI systémy, by měly v závislosti na typu AI zajistit alespoň minimální standardy, jako je ochrana soukromí, spravedlnost, vysvětlitelnost nebo přístupnost.“

Umělou inteligenci mohou bohužel využít i kyberzločinci pro zdokonalování svých útoků, automatizované identifikaci zranitelných míst, vytváření cílených phishingových kampaní, sociálnímu inženýrství nebo vytváření pokročilého malwaru, který zvládne měnit svůj kód a lépe se tak vyhne detekci, a také ke generování přesvědčivých audio i video deepfake podvodů, které mohou být použity k politickým manipulacím, falešným důkazům v trestních řízeních nebo mohou oklamat uživatele a vylákat z nich peníze.

Ale AI je i významným pomocníkem při obraně právě před kyberútoky. Check Point využívá k analýze hrozeb a ochraně před útoky více než 70 různých nástrojů, přičemž více než 40 z nich je založeno na AI. Tyto technologie pomáhají například při analýze chování, analýze velkého množství dat o hrozbách z různých zdrojů, včetně darknetu, usnadňují detekci zero-day zranitelností nebo umožňují automatizovat záplatování bezpečnostních chyb.

Chybějí vám lidi? Najděte skryté IT talenty ve své organizaci! Přečtěte si také:

Chybějí vám lidi? Najděte skryté IT talenty ve své organizaci!

„V poslední době se také diskutují různé zákazy a omezení AI. V případě ChatGPT jsou obavy spojené zejména s ochranou soukromí, jelikož jsme už byli svědky úniku dat, není ani vyřešena věková hranice uživatelů. Blokování podobných služeb má ovšem jen omezený účinek, protože každý jen trochu zdatnější uživatel zvládne zákaz obejít například pomocí VPN, čile se obchoduje také s kradenými prémiovými účty. Problémem je, že většina uživatelů si neuvědomuje, že citlivé informace vkládané do ChatGPT budou v případě úniku velmi cenné a mohly by být použity k cíleným marketingovým účelům. Mluvíme o potenciální sociální manipulaci v dosud nevídaném měřítku,“ upozorňuje Pavel Krejčí.

Dopad umělé inteligence na naši společnost bude záviset na tom, jak se rozhodneme tuto technologii rozvíjet a používat. Bude důležité zvážit potenciální přínosy a rizika a snažit se, aby se AI vyvíjela zodpovědně, eticky a prospěšně pro společnost.

Video ke kávě

Máte čas na rychlé a informativní video? 

Našli jste v článku chybu?