Společnost Apple se v zájmu o ochranu dětí pouští do nového projektu, který může vzbudit i vlnu kontroverze. Jde totiž o ochranu dětí ve třech různých oblastech, která zároveň zahrnuje monitorování odesílaného obsahu. Na vytvoření nových procesů Apple spolupracoval s experty na ochranu dětí a společnost chce zajistit větší bezpečnost ve světě online, ale nejen to. Problém se týká i sexuálního zneužívání dětí.

První bod se týká sexuálně explicitního obsahu. Pokud Apple ve zprávě detekuje takový obsah, snímek bude rozmazán a dítě bude varováno, že jde o obrázek, který by nemělo vidět. Zobrazit si ho sice může, ale rodiče si mohou nastavit, že v takovém případě budou o zobrazení informováni. Rovněž dítě bude předem varováno, že pokud tak učiní, rodiče se o tom dozví. Stejně tak to platí i při odesílání obsahu tohoto typu. Vyhodnocování "sexuálnosti" obsahu se vyhodnocuje na zařízení, nic tedy nejde na cloud. Novinka přijde v operačních systémech iOS 15, iPadOS 15 a macOS Monterey.
Dále přibude detekce obsahu CSAM (Child Sexual Abuse Material), tedy obsahujícího sexuální zneužívání dětí. V tomto případě vznikla databáze CSAM obsahu vyvinutá ve spolupráci s National Center for Missing and Exploited Children (NCMEC). Každému takovému známému snímku bude vytvořen hash a hashe snímků se pak při nahrávání na cloud budou ještě na zařízeních porovnávat s databází. Pokud účet překročí předem stanovenou hranici takových shod, dojde k zablokování účtu uživatele a ten bude nahlášen NCMEC. Podle Applu je šance špatného vyhodnocení jedna k biliónu. Uživatelé se mohou proti rozhodnutí odvolat.
Třetí novinkou je pak rozšíření funkčnosti Siri a vyhledávání právě v oblasti hledání pomoci při nahlašování zneužívání dětí a dalších podobných problémů.
Zdroj: apple.com