Meta призвали пойти дальше в борьбе с приложениями «nudify»


Meta подала в суд на компанию, которая размещает на своей платформе рекламу, продвигающую так называемые приложения «nudify», которые обычно используют искусственный интеллект (ИИ) для создания поддельных обнаженных изображений людей без их согласия.

Компания подала в суд на фирму, стоящую за приложениями CrushAI, чтобы полностью прекратить публикацию рекламы после многомесячной борьбы за их удаление.

Руки человека, использующего смартфон

«Это судебное разбирательство подчеркивает как серьезность, с которой мы воспринимаем это злоупотребление, так и нашу приверженность тому, чтобы сделать все возможное, чтобы защитить наше сообщество от него», — написала Meta в своем блоге.

Алексиос Манцарлис, автор блога Faked Up, сказал, что на платформах Meta в Facebook и Instagram было «по меньшей мере 10 000 объявлений», продвигающих приложения «nudify».

Мантзарлис сказал BBC, что он рад, что Meta сделала этот шаг, но предупредил, что компании нужно сделать больше.

«Даже когда они делали это заявление, я смог найти дюжину объявлений CrushAI в прямом эфире на платформе и еще сотню от других «обнажателей»», — сказал он.

«Этот вектор злоупотреблений требует постоянного мониторинга со стороны исследователей и СМИ, чтобы заставить платформу нести ответственность и ограничить распространение этих вредоносных инструментов».

В своем блоге Meta заявила: «Мы продолжим принимать необходимые меры, которые могут включать судебные иски, против тех, кто злоупотребляет нашей платформой подобным образом».

«Разрушительные эмоциональные потери»

Рост генеративного ИИ привел к всплеску «обнажающих» приложений в последние годы.

Они стали настолько распространенными, что в апреле детская комиссия Англии призвала правительство ввести законодательство, которое полностью запретит их.

Создание или хранение сексуального контента с участием детей, созданного с помощью искусственного интеллекта, является незаконным.

Однако Мэтью Совемимо, заместитель руководителя отдела политики безопасности детей в Интернете в NSPCC, заявил, что исследование благотворительной организации показало, что хищники «используют» приложения для создания незаконных изображений детей.

«Эмоциональные последствия для детей могут быть абсолютно разрушительными», — сказал он.

«Многие чувствуют себя бессильными, оскорбленными и лишенными контроля над собственной личностью.

«Правительство должно действовать сейчас, чтобы запретить приложения «обнажения» для всех пользователей Великобритании и прекратить их рекламу и продвижение в больших масштабах».

Meta заявила, что недавно внесла еще одно изменение в попытке справиться с более широкой проблемой приложений «обнажения» в Интернете, поделившись информацией с другими технологическими компаниями.

«С тех пор как мы начали делиться этой информацией в конце марта, мы предоставили более 3800 уникальных URL-адресов участвующим технологическим компаниям», — говорится в сообщении.

Компания признала, что у нее есть проблема с компаниями, которые обходят ее правила по размещению рекламы без ее ведома, например, создают новые доменные имена для замены запрещенных.

Компания заявила, что разработала новую технологию, предназначенную для идентификации такой рекламы, даже если она не содержит наготы.

Приложения Nudify — это лишь последний пример использования ИИ для создания проблемного контента на платформах социальных сетей.

Еще одной проблемой является использование ИИ для создания дипфейков — высокореалистичных изображений или видео знаменитостей — с целью обмана или введения людей в заблуждение.

В июне Совет по надзору Meta раскритиковал решение оставить пост в Facebook, демонстрирующий обработанное ИИ видео человека, который, по всей видимости, является легендой бразильского футбола Роналду Назарио.

Ранее Meta пыталась бороться с мошенниками, которые обманным путем используют знаменитостей в рекламе, используя технологию распознавания лиц.

Он также требует от политических рекламодателей декларировать использование ИИ из-за опасений по поводу влияния дипфейков на выборы.


Добавить комментарий