Apple oznámil, že hodlá scanovat iPhony kvůli vyhledávání ilegálního obsahu, jmenovitě dětské pornografie a dalších sexuálně explicitních materiálů. Okamžitě tím rozpoutal diskuzi na téma soukromí uživatelů. Firma tvrdí, že její systém je automatizovaný, neprohlíží obsah fotografií jako takový a problematický obsah dokáže identifikovat s využitím hashovací funkce. A taky, disponuje prý zabezpečením proti selhání a možnému zneužití. Oponenti však upozorňují, že takový sledovací systém může být – a pravděpodobně bude – zneužíván některými státy.
Ještě letos se má stát součástí iOS 15, iPadOS 15 a macOS Monterey, pojďme si tedy představit tři základní účely systému:
1) Skenování fotografií
Systém skenuje veškeré fotografie uložené ve Fotkách na iCloudu, aby zjistil, zda neodpovídají kritériím CSAM (Child Sexual Abuse Material) databáze spravované Národním centrem pro pohřešované a zneužívané děti (NCMEC), jejíchž hashů je pro tyto účely využíváno. Fotografie jsou přitom skenovány přímo v zařízení, do kterého Apple hashe z databáze uloží. Sken pak může probíhat pokaždé, když je do iCloud Fotek uložena nová fotografie, a je-li objevena shoda hashe, Apple je na tuto skutečnost upozorněn, načež je kontrola obsahu provedena ještě manuálně.
Pokud by byl skutečně v zařízení objeven nelegální obsah, Apple zablokuje uživatelský účet a informuje NCMEC. Sám Apple nicméně upozorňuje, že systém není dokonalý a připouští jistou míru chybovosti, a to v šanci zhruba jedna ku bilionu. V případě, že by k takové chybě došlo a uživatel se cítil zablokován neprávem, může se prý odvolat.
2) Skenování zpráv
S využitím strojového učení dokáže systém skenovat také fotografie zaslané prostřednictvím textových zpráv, je-li odesílatelem či příjemcem nezletilá osoba. Pakliže je tímto způsobem zjištěn nevhodný obsah, dokáže systém upozornit rodiče, respektive na základě jejich rozhodnutí takové fotografie automaticky rozmazávat. Pokud se dětský uživatel pokusí odeslat sexuálně explicitní obsah, systém ho varuje a opět: může upozornit rodiče. I v tomto případě dle Applu skenování probíhá bez prohlížení samotného obsahu fotografií.
3) Hlídání vyhledávání
Třetí oblast činnosti systému je pak navázána na funkci vyhledávání, respektive hlasovou asistentku Siri. Obě budou dle Applu rodičům a dětem poskytovat doplňující informace a případnou pomoc, pokud se ocitnou v „rizikové situaci“, obě také zasáhnou, jestliže se uživatel pokusí vyhledat CSAM obsah. Tím, že uživatele upozorní, že vyhledání takového obsahu může být problematické.
Trocha technikálií
Apple k systému vydal rozsáhlou technickou dokumentaci, která jeho fungování poměrně detailně osvětluje. Opakovaně v ní mimo jiné ujišťuje, že systém nebude sbírat žádné informace o fotografiích, které neodpovídají kritériím CSAM databáze.
Technologie nazvaná NeuralHash analyzuje dostupné (problematické) CSAM fotografie, které převádí na unikátní čísla, přičemž jen téměř identický obrázek dokáže vygenerovat totožné číslo. Je-li nalezena shoda, vytvoří systém bezpečnostní kryptografický voucher, s nímž může Applem pověřený lidský kontrolor rozšifrovat podezřelou fotografii a ověřit, zda je skutečně závadná.
Apple není jedinou firmou, po které je vyžadováno hlášení CSAM obsahu úřadům. Ze zákona jej musí přinejmenším v USA hlásit jakákoliv firma, která takto závadný obsah objeví na svých serverech a třeba Facebook, Microsoft a Google už dnes využívají technologie, které dokáží skenovat podezřelý obsah sdílený přes e-mail či jiné služby pro zasílání zpráv. Rozdíl je v tom, že jejich kontrola probíhá na jejich serverech, nikoliv přímo na konkrétním zařízení.
Apple sice vždy tvrdil, že jeho aplikace pro zasílání zpráv disponují koncovým šifrováním, tohle tvrzení je však poněkud ošidné, jestliže ke skenování obsahu dochází na zařízení uživatele ještě předtím, než je zašifrován. Ochrana dětí je pochopitelně něco, co naprostá většina lidí podporuje, někteří obhájci soukromí uživatelů však upozorňují, že některé vlády mohou začít vyvíjet na Apple tlak, aby na zařízeních uživatelů hledal i jiné materiály, které by mohly být zejména v méně demokratických a liberárních režimech zneužívány.