Apple отстаивает новую технологию сканирования фотографий для защиты детей


Apple защитила свою новую систему, которая сканирует телефоны пользователей на предмет материалов о сексуальном насилии над детьми (CSAM), после негативной реакции со стороны клиентов и защитников конфиденциальности.

Технология ищет совпадения с известными оскорбительными материалами до того, как изображение будет загружено в хранилище iCloud.

Компания Apple ответила критикам своих новых мер по борьбе с насилием над детьми
Компания Apple ответила критикам своих новых мер по борьбе с насилием над детьми

Критики предупредили, что это может быть «черный ход» для слежки за людьми, и более 5000 человек и организаций подписали открытое письмо против этой технологии.

В результате Apple пообещала не «расширять» систему ни по какой причине.

На прошлой неделе сторонники цифровой конфиденциальности предупредили, что авторитарные правительства могут использовать эту технологию для поддержки анти-ЛГБТ-режимов или подавления политических диссидентов в странах, где протесты считаются незаконными.

Но Apple заявила, что «не согласится ни на один запрос правительства о расширении» системы.

Он опубликовал документ с вопросами и ответами, заявив, что у него есть многочисленные гарантии, чтобы предотвратить использование его систем для чего-либо, кроме обнаружения изображений жестокого обращения с детьми.

«Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказывать им в будущем», — говорится в сообщении.

Однако в прошлом Apple пошла на уступки, чтобы продолжить работу в странах по всему миру.

  • Следует ли ограничить шифрование для борьбы с жестоким обращением с детьми?
  • Шифрование Facebook не должно причинять вреда детям

В канун прошлого Нового года технический гигант удалил 39 000 приложений из своего китайского App Store на фоне репрессий со стороны властей страны в отношении нелицензионных игр.

Apple также заявила, что ее средство защиты от CSAM не позволит компании просматривать или сканировать фотоальбомы пользователей. Он будет сканировать только фотографии, опубликованные в iCloud.

Система будет надежно искать совпадения на устройстве на основе базы данных хэшей известных образов CSAM, предоставленных организациями по безопасности детей.

Apple также утверждает, что почти невозможно ложно сообщить полиции о невиновных людях. «Вероятность того, что система неправильно пометит любую учетную запись, составляет менее одного триллиона в год», — говорится в сообщении. Есть также человеческий обзор положительных совпадений.

Защитники конфиденциальности, однако, утверждают, что единственное, что препятствует использованию этой технологии для других целей, — это обещание Apple, что этого не произойдет.

Группа цифровых прав Electronic Frontier Foundation, например, заявила, что «все, что потребуется … — это расширить параметры машинного обучения для поиска дополнительных типов контента».

«Это не скользкая дорожка; это полностью построенная система, которая просто ждет, пока внешнее давление внесет малейшие изменения», — предупредил он.

Apple также заверила, что есть еще одна новая функция, которая будет предупреждать детей и их родителей, использующих связанные семейные учетные записи, при отправке или получении фотографий откровенно сексуального характера.

Компания заявляет, что две ее новые функции не используют одну и ту же технологию, и заявляет, что «никогда» не получит доступа к личным сообщениям пользователей.

Хотя защитники конфиденциальности информации Apple вызвали негативную реакцию в связи с заявлением Apple, некоторые политики приветствовали новую технологию.

Министр здравоохранения Великобритании Саджид Джавид сказал, что настало время, чтобы другие, особенно Facebook, последовали их примеру.


Добавить комментарий