Похоже, что Apple забыла про функцию сканирования запрещенных фото на iPhone

Прошло больше года с тех пор, как Apple представила функцию, которая автоматически обнаруживает фотографии на iPhone, содержащие сцены с жестоким обращением с детьми (CSAM).
Изначально Apple планировала добавить функцию в iOS 15 к концу 2021 году. Но в итоге компания отложила её запуск после того, как подверглась критике со стороны пользователей, экспертов по безопасности и правозащитных организаций.
В декабре 2021 года Apple удалила все упоминания функции со своего сайта, но представитель компании сообщил, что планы не изменились. С тех пор Apple не комментировала запуск функции.

В тему: Бояться не надо? Разбираем, как Apple будет сканировать ваши фото на айфоне, искать запрещёнку и даже докладывать в органы

Apple собиралась сканировать только фотографии, выгружаемые в iCloud. Все операции должны были осуществляться на iPhone. Для сканирования каждый снимок хэшировался, а затем система сравнивала его код с фотографиями, которые содержат сцены с жестоким обращением с детьми.
При многочисленных совпадениях проверять изображения должен был специальный человек. Если бы он подтвердил наличие незаконных фото, то Apple передала бы данные о владельце iPhone в некоммерческую организацию, которая работает в сотрудничестве с правоохранительными органами США. [Macrumors]
Источник

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: