Apple отстаивает новую технологию сканирования фотографий для защиты детей

Apple защитила свою новую систему, которая сканирует телефоны пользователей на предмет материалов о сексуальном насилии над детьми (CSAM), после негативной реакции со стороны клиентов и защитников конфиденциальности.

Технология ищет совпадения с известными оскорбительными материалами до того, как изображение будет загружено в хранилище iCloud.

Компания Apple ответила критикам своих новых мер по борьбе с насилием над детьми
Компания Apple ответила критикам своих новых мер по борьбе с насилием над детьми

Критики предупредили, что это может быть «черный ход» для слежки за людьми, и более 5000 человек и организаций подписали открытое письмо против этой технологии.

В результате Apple пообещала не «расширять» систему ни по какой причине.

На прошлой неделе сторонники цифровой конфиденциальности предупредили, что авторитарные правительства могут использовать эту технологию для поддержки анти-ЛГБТ-режимов или подавления политических диссидентов в странах, где протесты считаются незаконными.

Но Apple заявила, что «не согласится ни на один запрос правительства о расширении» системы.

Он опубликовал документ с вопросами и ответами, заявив, что у него есть многочисленные гарантии, чтобы предотвратить использование его систем для чего-либо, кроме обнаружения изображений жестокого обращения с детьми.

«Мы и раньше сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и упорно отказывались от этих требований. Мы продолжим отказывать им в будущем», – говорится в сообщении.

Однако в прошлом Apple пошла на уступки, чтобы продолжить работу в странах по всему миру.

  • Следует ли ограничить шифрование для борьбы с жестоким обращением с детьми?
  • Шифрование Facebook не должно причинять вреда детям

В канун прошлого Нового года технический гигант удалил 39 000 приложений из своего китайского App Store на фоне репрессий со стороны властей страны в отношении нелицензионных игр.

Apple также заявила, что ее средство защиты от CSAM не позволит компании просматривать или сканировать фотоальбомы пользователей. Он будет сканировать только фотографии, опубликованные в iCloud.

Система будет надежно искать совпадения на устройстве на основе базы данных хэшей известных образов CSAM, предоставленных организациями по безопасности детей.

Apple также утверждает, что почти невозможно ложно сообщить полиции о невиновных людях. «Вероятность того, что система неправильно пометит любую учетную запись, составляет менее одного триллиона в год», – говорится в сообщении. Есть также человеческий обзор положительных совпадений.

Защитники конфиденциальности, однако, утверждают, что единственное, что препятствует использованию этой технологии для других целей, – это обещание Apple, что этого не произойдет.

Группа цифровых прав Electronic Frontier Foundation, например, заявила, что «все, что потребуется … – это расширить параметры машинного обучения для поиска дополнительных типов контента».

«Это не скользкая дорожка; это полностью построенная система, которая просто ждет, пока внешнее давление внесет малейшие изменения», – предупредил он.

Apple также заверила, что есть еще одна новая функция, которая будет предупреждать детей и их родителей, использующих связанные семейные учетные записи, при отправке или получении фотографий откровенно сексуального характера.

Компания заявляет, что две ее новые функции не используют одну и ту же технологию, и заявляет, что «никогда» не получит доступа к личным сообщениям пользователей.

Хотя защитники конфиденциальности информации Apple вызвали негативную реакцию в связи с заявлением Apple, некоторые политики приветствовали новую технологию.

Министр здравоохранения Великобритании Саджид Джавид сказал, что настало время, чтобы другие, особенно Facebook, последовали их примеру.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *