Společnost Meta pracuje na vývoji nástrojů pro identifikaci obrázků uměle vytvořených generativními systémy umělé inteligence, které by mohly fungovat na sociálních sítích jako jsou Facebook, Instagram a Threads.
Důvěřujete firmám, které s vámi komunikují pomocí AI?
„…spolupracujeme s partnery z oboru na sladění společných technických standardů, které signalizují, jestliže byl obsah vytvořen pomocí umělé inteligence. Schopnost detekovat tyto signály nám umožní označovat obrázky vytvořené umělou inteligencí, které uživatelé zveřejňují na Facebooku, Instagramu a Threads,“ napsal v příspěvku na blogu Nick Clegg, prezident pro globální záležitosti společnosti Meta.
Označení takových obrázků by pak mělo být prováděno prostřednictvím speciálních štítků.
Krok k označování obrázků generovaných umělou inteligencí od společností, jako jsou Google, OpenAI, Adobe, Shutterstock a Midjourney, nabývá na významu, protože v roce 2024 proběhne několik voleb v několika zemích včetně USA, EU, Indie a Jihoafrické republiky.
Letos se Meta také dozví více o tom, jak uživatelé vytvářejí a sdílejí obsah generovaný umělou inteligencí a jaký druh transparentnosti považují netizeni za hodnotný, uvedl Clegg.
Cleggova zmínka o volbách zaznívá jako připomínka skandálu Cambridge Analytica, který v roce 2018 odhalily deníky New York Times a The Observer a v jehož důsledku došlo ke kompromitaci dat nejméně 50 milionů uživatelů Facebooku.
Minulý měsíc společnost OpenAI, výrobce ChatGPT, suspendovala dva vývojáře, kteří vytvořili bota napodobujícího demokratického kandidáta na prezidenta Deana Phillipse, což bylo první opatření společnosti proti zneužití umělé inteligence.
Žádné štítky pro zvuk a video generované umělou inteligencí
Meta podle Clegga už označuje obrázky vytvořené vlastní funkcí AI, která využívá značek a neviditelných vodoznaků, které jsou vkládány do metadat obrázku. Jejich kombinace usnadňuje ostatním platformám identifikaci takových obrázků.
Meta také spolupracuje s dalšími společnostmi na vývoji společných standardů pro identifikaci obrázků vytvořených umělou inteligencí prostřednictvím fór, jako je například Partnership on AI (PAI). Clegg však upozornil také na to, že zatímco několik společností začíná už podobné identifikační signály zahrnovat, stejná politika se neuplatňuje u generovaného zvuku a videa.
Vzhledem k tomu, že neexistují zásady identifikace generovaného zvuku a videa, Clegg uvedl, že Meta přidává funkci, která umožní informovat přímo uživatelům, když sdílejí video nebo zvuk generovaný umělou inteligencí, aby k němu společnost mohla přidat štítek.
„Budeme vyžadovat, aby lidé používali tento nástroj pro zveřejňování a označování, když zveřejní organický obsah s fotorealistickým videem nebo realisticky znějícím zvukem, který byl vytvořen nebo upraven digitálně, a pokud tak neučiní, můžeme uplatnit sankce,“ napsal Clegg na blogu.
Přibudou další výzvy
Meta připouští, že ačkoli vyvíjené nástroje a standardy jsou v oblasti označování generovaného obsahu momentálně maximem možného, hackeři by přesto mohli najít způsoby, jak neviditelné značky odstranit.
Aby společnost takové jednání omezila, pracuje na vývoji klasifikátorů, které jí pomohou automaticky detekovat obsah generovaný umělou inteligencí, a to i v případě, že v obsahu chybí neviditelné značky.
„Zároveň hledáme způsoby, jak ztížit odstraňování nebo pozměňování neviditelných vodoznaků. Například naše výzkumná laboratoř FAIR nedávno sdílela výzkum technologie neviditelných vodoznaků, kterou vyvíjíme pod názvem Stable Signature,“ napsal Clegg.
Stable Signature integruje mechanismus vodoznaku přímo do procesu generování obrázků u některých typů generátorů obrázků, což by mohlo být cenné pro modely s otevřeným zdrojovým kódem, takže vodoznak by nešlo odstranit.
Meta už dřív používala systémy umělé inteligence k odhalování a odstraňování nenávistných projevů a dalších forem obsahu, které porušovaly zásady společnosti. Od třetího čtvrtletí roku 2023 Meta tvrdí, že její AI systémy pomohly snížit výskyt nenávistných projevů na Facebooku na pouhých 0,01–0,02 %.
Meta plánuje využívat generativní umělou inteligenci právě i k rychlejšímu odstraňování škodlivého obsahu.
„Začali jsme testovat velké jazykové modely (LLM) tím, že je trénujeme na našich ,komunitních standardech‘, které nám pomáhají určit, zda daný obsah porušuje naše zásady. Tyto první testy naznačují, že LLM mohou fungovat lépe než stávající modely strojového učení,“ napsal Clegg.
Tyto modely také pomáhají společnosti za určitých okolností odstraňovat obsah z front příspěvků na zhodnocení, pokud jsou si hodnotitelé velmi jistí, že neporušuje zásady společnosti.
Security World si můžete koupit i jako klasický časopis, buď v klasické tištěné formě nebo v elektronické verzi. Věnujeme se bezpečnosti počítačových systémů, ochraně dat, informací a soukromí. Jsme jediný titul na českém a slovenském trhu, který oslovuje širokou čtenářskou obec – od ředitelů firem, přes odborníky na bezpečnost po koncové uživatele. Naším cílem je poskytnout ucelený přehled o bezpečnostních hrozbách a zejména o tom, proč a jak se jim bránit, případně proč respektovat a dodržovat nařízení IT manažerů ve firmách.