Recenze  |  Aktuality  |  Články
Doporučení  |  Diskuze
Grafické karty
Chlazení a skříně
Ostatní
Periférie
Procesory
Storage a RAM
Základní desky
O nás  |  Napište nám
Facebook  |  Twitter
Digimanie  |  TV Freak
Svět mobilně  |  Svět audia

Apple bude skenovat fotky, chce odhalovat sexuální zneužívání dětí

, , aktualita
Apple bude skenovat fotky, chce odhalovat sexuální zneužívání dětí
Apple potvrdil, že zavede novou technologii skenování fotografií uživatelů, která má odhalovat sexuálně explicitní snímky. Zaměřena je především na zneužívání dětí i jejich ochranu před nevhodným obsahem.
Apple bude skenovat fotky, chce odhalovat sexuální zneužívání dětí
Společnost Apple se v zájmu o ochranu dětí pouští do nového projektu, který může vzbudit i vlnu kontroverze. Jde totiž o ochranu dětí ve třech různých oblastech, která zároveň zahrnuje monitorování odesílaného obsahu. Na vytvoření nových procesů Apple spolupracoval s experty na ochranu dětí a společnost chce zajistit větší bezpečnost ve světě online, ale nejen to. Problém se týká i sexuálního zneužívání dětí.
 
Apple CSAM
 
První bod se týká sexuálně explicitního obsahu. Pokud Apple ve zprávě detekuje takový obsah, snímek bude rozmazán a dítě bude varováno, že jde o obrázek, který by nemělo vidět. Zobrazit si ho sice může, ale rodiče si mohou nastavit, že v takovém případě budou o zobrazení informováni. Rovněž dítě bude předem varováno, že pokud tak učiní, rodiče se o tom dozví. Stejně tak to platí i při odesílání obsahu tohoto typu. Vyhodnocování "sexuálnosti" obsahu se vyhodnocuje na zařízení, nic tedy nejde na cloud. Novinka přijde v operačních systémech iOS 15, iPadOS 15 a macOS Monterey.
 
Dále přibude detekce obsahu CSAM (Child Sexual Abuse Material), tedy obsahujícího sexuální zneužívání dětí. V tomto případě vznikla databáze CSAM obsahu vyvinutá ve spolupráci s National Center for Missing and Exploited Children (NCMEC). Každému takovému známému snímku bude vytvořen hash a hashe snímků se pak při nahrávání na cloud budou ještě na zařízeních porovnávat s databází. Pokud účet překročí předem stanovenou hranici takových shod, dojde k zablokování účtu uživatele a ten bude nahlášen NCMEC. Podle Applu je šance špatného vyhodnocení jedna k biliónu. Uživatelé se mohou proti rozhodnutí odvolat.
 
Třetí novinkou je pak rozšíření funkčnosti Siri a vyhledávání právě v oblasti hledání pomoci při nahlašování zneužívání dětí a dalších podobných problémů.
 
Zdroj: apple.com


reklama