[ad_1]
Технический гигант Apple незаметно удалил упоминания о своем плане сканирования пользовательских файлов на наличие изображений сексуального насилия над детьми на всех iPhone в США, но не отложил саму идею. Критики называют предложенную технологию серьезным посягательством на частную жизнь.
Последнее обновление страницы Apple по безопасности детей удалило все упоминания о схеме материалов о сексуальном насилии над детьми (CSAM), которая вызвала негативную реакцию после того, как впервые было объявлено в августе.
В рамках CSAM устройства Apple будут собирать хеш-суммы частных изображений и сравнивать их с базой данных изображений сексуального насилия над несовершеннолетними. По его словам, это позволит компании направлять властям выявленных владельцев детской порнографии.
Это предложение подверглось критике со стороны многих сторонников конфиденциальности в Интернете, таких как информатор АНБ Эдвард Сноуден и Electronic Frontier Foundation. Они заявили, что такой подход, по сути, дает Apple больше возможностей для наблюдения за своими клиентами, и предупредили, что, если будет введена CSAM, правительства будут в состоянии усилить американских технологических гигантов, чтобы они отслеживали людей на предмет большего количества материалов, которые они считают опасными или нежелательными.
Обновление страницы было впервые обнаружено MacRumors.com и произошло где-то между прошлой пятницей и понедельником, судя по архивным версиям.
Несмотря на изменение, компания по-прежнему планирует развернуть эту функцию когда-нибудь в будущем, сообщил The Verge представитель компании. Позиция Apple в отношении CSAM не изменилась с сентября, когда компания заявила, что откладывает запуск этой функции, сказал Шейн Бауэр. Подробное объяснение того, как это будет работать, которое было опубликовано в августе, все еще доступно на веб-сайте Apple, но дата выпуска пока не объявлена.
Обновление страницы, по-видимому, произошло с появлением на прошлой неделе двух других функций защиты детей Apple. Один сканирует изображения в чате «Сообщения» на предмет возможной наготы, размывая изображения, полученные несовершеннолетним, и останавливая те, которые он или она хочет отправить, и запрашивая подтверждение. Другой вмешивается, когда несовершеннолетний отправляет поисковый запрос по теме, которая, по мнению Apple, связана с эксплуатацией детей. Оба были анонсированы в августе вместе с CSAM.
[ad_2]