Apple защитила свою новую систему, которая сканирует телефоны пользователей на предмет материалов о сексуальном насилии над детьми (CSAM), после негативной реакции со стороны клиентов и защитников конфиденциальности.
Технология ищет совпадения с известными оскорбительными материалами до того, как изображение будет загружено в хранилище iCloud.
Критики предупредили, что это может быть «черный ход» для слежки за людьми, и более 5000 человек и организаций подписали открытое письмо против этой технологии.
В результате Apple пообещала не «расширять» систему ни по какой причине.
На прошлой неделе сторонники цифровой конфиденциальности предупредили, что авторитарные правительства могут использовать эту технологию для поддержки анти-ЛГБТ-режимов или подавления политических диссидентов в странах, где протесты считаются незаконными.
Но Apple заявила, что «не согласится ни на один запрос правительства о расширении» системы.
Он опубликовал документ с вопросами и ответами, заявив, что у него есть многочисленные гарантии, чтобы предотвратить использование его систем для чего-либо, кроме обнаружения изображений жестокого обращения с детьми.
«Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказывать им в будущем», — говорится в сообщении.
Однако в прошлом Apple пошла на уступки, чтобы продолжить работу в странах по всему миру.
- Следует ли ограничить шифрование для борьбы с жестоким обращением с детьми?
- Шифрование Facebook не должно причинять вреда детям
В канун прошлого Нового года технический гигант удалил 39 000 приложений из своего китайского App Store на фоне репрессий со стороны властей страны в отношении нелицензионных игр.
Apple также заявила, что ее средство защиты от CSAM не позволит компании просматривать или сканировать фотоальбомы пользователей. Он будет сканировать только фотографии, опубликованные в iCloud.
Система будет надежно искать совпадения на устройстве на основе базы данных хэшей известных образов CSAM, предоставленных организациями по безопасности детей.
Apple также утверждает, что почти невозможно ложно сообщить полиции о невиновных людях. «Вероятность того, что система неправильно пометит любую учетную запись, составляет менее одного триллиона в год», — говорится в сообщении. Есть также человеческий обзор положительных совпадений.
Защитники конфиденциальности, однако, утверждают, что единственное, что препятствует использованию этой технологии для других целей, — это обещание Apple, что этого не произойдет.
Группа цифровых прав Electronic Frontier Foundation, например, заявила, что «все, что потребуется … — это расширить параметры машинного обучения для поиска дополнительных типов контента».
«Это не скользкая дорожка; это полностью построенная система, которая просто ждет, пока внешнее давление внесет малейшие изменения», — предупредил он.
Apple также заверила, что есть еще одна новая функция, которая будет предупреждать детей и их родителей, использующих связанные семейные учетные записи, при отправке или получении фотографий откровенно сексуального характера.
Компания заявляет, что две ее новые функции не используют одну и ту же технологию, и заявляет, что «никогда» не получит доступа к личным сообщениям пользователей.
Хотя защитники конфиденциальности информации Apple вызвали негативную реакцию в связи с заявлением Apple, некоторые политики приветствовали новую технологию.
Министр здравоохранения Великобритании Саджид Джавид сказал, что настало время, чтобы другие, особенно Facebook, последовали их примеру.