Hlavní navigace

Meta bude označovat obrázky, které vytvořila umělá inteligence

8. 2. 2024

Sdílet

 Autor: Computerworld.cz s využitím Dall-E
Provozovatel známých sociální sítí přidává také funkci, prostřednictvím které mohou lidé označit audio či video obsah vygenerovaný umělou inteligencí. Pokud tak neučiní, může je čekat postih.

Společnost Meta pracuje na vývoji nástrojů pro identifikaci obrázků uměle vytvořených generativními systémy umělé inteligence, které by mohly fungovat na sociálních sítích jako jsou Facebook, Instagram a Threads.

Důvěřujete firmám, které s vámi komunikují pomocí AI?

„…spolupracujeme s partnery z oboru na sladění společných technických standardů, které signalizují, jestliže byl obsah vytvořen pomocí umělé inteligence. Schopnost detekovat tyto signály nám umožní označovat obrázky vytvořené umělou inteligencí, které uživatelé zveřejňují na Facebooku, Instagramu a Threads,“ napsal v příspěvku na blogu Nick Clegg, prezident pro globální záležitosti společnosti Meta.

Označení takových obrázků by pak mělo být prováděno prostřednictvím speciálních štítků.

Generátor obrázků přímo v počítači? Jak si nainstalovat Stable Diffusion do vašeho stroje Přečtěte si také:

Generátor obrázků přímo v počítači? Jak si nainstalovat Stable Diffusion do vašeho stroje

Krok k označování obrázků generovaných umělou inteligencí od společností, jako jsou Google, OpenAI, Adobe, Shutterstock a Midjourney, nabývá na významu, protože v roce 2024 proběhne několik voleb v několika zemích včetně USA, EU, Indie a Jihoafrické republiky.

Letos se Meta také dozví více o tom, jak uživatelé vytvářejí a sdílejí obsah generovaný umělou inteligencí a jaký druh transparentnosti považují netizeni za hodnotný, uvedl Clegg.

Cleggova zmínka o volbách zaznívá jako připomínka skandálu Cambridge Analytica, který v roce 2018 odhalily deníky New York Times a The Observer a v jehož důsledku došlo ke kompromitaci dat nejméně 50 milionů uživatelů Facebooku.

Minulý měsíc společnost OpenAI, výrobce ChatGPT, suspendovala dva vývojáře, kteří vytvořili bota napodobujícího demokratického kandidáta na prezidenta Deana Phillipse, což bylo první opatření společnosti proti zneužití umělé inteligence.

Žádné štítky pro zvuk a video generované umělou inteligencí

Meta podle Clegga už označuje obrázky vytvořené vlastní funkcí AI, která využívá značek a neviditelných vodoznaků, které jsou vkládány do metadat obrázku. Jejich kombinace usnadňuje ostatním platformám identifikaci takových obrázků.

Tvůrce ChatGPT a generátoru DALL-E řeší, kdy vydat detektor obrázků vytvořených umělou inteligencí Přečtěte si také:

Tvůrce ChatGPT a generátoru DALL-E řeší, kdy vydat detektor obrázků vytvořených umělou inteligencí

Meta také spolupracuje s dalšími společnostmi na vývoji společných standardů pro identifikaci obrázků vytvořených umělou inteligencí prostřednictvím fór, jako je například Partnership on AI (PAI). Clegg však upozornil také na to, že zatímco několik společností začíná už podobné identifikační signály zahrnovat, stejná politika se neuplatňuje u generovaného zvuku a videa.

Vzhledem k tomu, že neexistují zásady identifikace generovaného zvuku a videa, Clegg uvedl, že Meta přidává funkci, která umožní informovat přímo uživatelům, když sdílejí video nebo zvuk generovaný umělou inteligencí, aby k němu společnost mohla přidat štítek.

„Budeme vyžadovat, aby lidé používali tento nástroj pro zveřejňování a označování, když zveřejní organický obsah s fotorealistickým videem nebo realisticky znějícím zvukem, který byl vytvořen nebo upraven digitálně, a pokud tak neučiní, můžeme uplatnit sankce,“ napsal Clegg na blogu.

Přibudou další výzvy

Meta připouští, že ačkoli vyvíjené nástroje a standardy jsou v oblasti označování generovaného obsahu momentálně maximem možného, hackeři by přesto mohli najít způsoby, jak neviditelné značky odstranit.

Aby společnost takové jednání omezila, pracuje na vývoji klasifikátorů, které jí pomohou automaticky detekovat obsah generovaný umělou inteligencí, a to i v případě, že v obsahu chybí neviditelné značky.

„Zároveň hledáme způsoby, jak ztížit odstraňování nebo pozměňování neviditelných vodoznaků. Například naše výzkumná laboratoř FAIR nedávno sdílela výzkum technologie neviditelných vodoznaků, kterou vyvíjíme pod názvem Stable Signature,“ napsal Clegg.

Britský nejvyšší soud rozhodl, že AI nemůže být držitelem patentu Přečtěte si také:

Britský nejvyšší soud rozhodl, že AI nemůže být držitelem patentu

Stable Signature integruje mechanismus vodoznaku přímo do procesu generování obrázků u některých typů generátorů obrázků, což by mohlo být cenné pro modely s otevřeným zdrojovým kódem, takže vodoznak by nešlo odstranit.

Meta už dřív používala systémy umělé inteligence k odhalování a odstraňování nenávistných projevů a dalších forem obsahu, které porušovaly zásady společnosti. Od třetího čtvrtletí roku 2023 Meta tvrdí, že její AI systémy pomohly snížit výskyt nenávistných projevů na Facebooku na pouhých 0,01–0,02 %.

Meta plánuje využívat generativní umělou inteligenci právě i k rychlejšímu odstraňování škodlivého obsahu.

bitcoin_skoleni

„Začali jsme testovat velké jazykové modely (LLM) tím, že je trénujeme na našich ,komunitních standardech‘, které nám pomáhají určit, zda daný obsah porušuje naše zásady. Tyto první testy naznačují, že LLM mohou fungovat lépe než stávající modely strojového učení,“ napsal Clegg.

Tyto modely také pomáhají společnosti za určitých okolností odstraňovat obsah z front příspěvků na zhodnocení, pokud jsou si hodnotitelé velmi jistí, že neporušuje zásady společnosti.

 

Security World si můžete koupit i jako klasický časopis, buď v klasické tištěné formě nebo v elektronické verzi. Věnujeme se bezpečnosti počítačových systémů, ochraně dat, informací a soukromí.  Jsme jediný titul na českém a slovenském trhu, který oslovuje širokou čtenářskou obec – od ředitelů firem, přes odborníky na bezpečnost po koncové uživatele. Naším cílem je poskytnout ucelený přehled o bezpečnostních hrozbách a zejména o tom, proč a jak se jim bránit, případně proč respektovat a dodržovat nařízení IT manažerů ve firmách.