Правонарушители не понимают этики сексуального насилия над детьми с помощью искусственного интеллекта


Благотворительная организация, которая помогает людям, беспокоящимся о своих мыслях или поведении, сообщает, что все больше звонящих не понимают этики просмотра изображений жестокого обращения с детьми, созданных искусственным интеллектом.

Фонд Люси Фейтфулл (LFF) утверждает, что изображения ИИ действуют как шлюз.

пальцы на ноутбуке

Благотворительная организация предупреждает, что создание или просмотр таких изображений по-прежнему является незаконным, даже если дети ненастоящие.

Нил (имя изменено) обратился на горячую линию после того, как его арестовали за создание изображений ИИ.

43-летний мужчина отрицал наличие у него какого-либо сексуального влечения к детям.

ИТ-сотрудник, который использовал программное обеспечение искусственного интеллекта для создания собственных непристойных изображений детей с помощью текстовых подсказок, сказал, что никогда не будет просматривать такие изображения реальных детей, потому что они его не привлекают. Он утверждал, что просто очарован этой технологией.

Он позвонил в ЛФФ, чтобы попытаться понять свои мысли, и операторы звонков напомнили ему, что его действия незаконны, независимо от того, настоящие дети или нет.

Благотворительная организация сообщает, что ей поступали аналогичные звонки от других людей, выражавших замешательство.

Другая звонившая позвонила после того, как узнала, что ее 26-летний партнер просматривал непристойные изображения детей, созданные искусственным интеллектом, но сказала, что это несерьезно, поскольку изображения «ненастоящие». После этого преступник обратился за помощью.

Учительница обратилась за советом в благотворительную организацию, поскольку ее 37-летний партнер просматривал изображения, которые казались незаконными, но ни одна из них не была уверена, так ли это.

Дональд Финдлейтер из LFF говорит, что некоторые звонящие на его конфиденциальную горячую линию Stop It Now думают, что изображения ИИ стирают границы того, что является незаконным и морально неправильным.

«Это опасная точка зрения. Некоторые правонарушители думают, что этот материал в некотором смысле можно создавать или просматривать, поскольку ни один ребенок не пострадал, но это неправильно», — говорит он.

В некоторых случаях изображения со злоупотреблениями ИИ также могут быть ошибочно помечены или рекламированы как созданные ИИ, и разницу в реалистичности становится все труднее заметить.

Финдлейтер говорит, что девиантные сексуальные фантазии являются самым сильным предиктором повторного совершения преступления для любого, кто осужден за сексуальное преступление.

«Если вы подпитываете эту девиантную фантазию, вы увеличиваете вероятность причинения вреда детям», — сказал он.

Благотворительная организация сообщает, что количество звонящих, ссылающихся на изображения ИИ в качестве причины своего оскорбления, остается небольшим, но растет. Фонд призывает общество признать эту проблему, а законодателей сделать что-то, чтобы уменьшить легкость создания и публикации в Интернете материалов о сексуальном насилии над детьми (CSAM).

Хотя благотворительная организация не назвала конкретные сайты, на которых она нашла эти изображения, один популярный сайт, посвященный искусству искусственного интеллекта, был обвинен в том, что он позволяет пользователям публиковать сексуальные и графические изображения очень юных моделей. Когда в ноябре BBC обратилась к Civit.ai по поводу этой проблемы, компания заявила, что «очень серьезно» относится к потенциальному CSAM на сайте и просит сообщество сообщать об изображениях, которые, по мнению пользователей, «изображают несовершеннолетних персонажей/людей в зрелом или зрелом возрасте». фотореалистичный контекст».

ЛФФ также предупредил, что молодые люди создают CSAM, не осознавая серьезности правонарушения. Один из звонивших, например, был обеспокоен своим 12-летним сыном, который использовал приложение искусственного интеллекта для создания неуместных фотографий друзей топлесс, а затем впоследствии искал в Интернете такое слово, как «голый подросток».

Недавно в Испании и США были возбуждены уголовные дела против мальчиков, которые использовали приложения для снятия одежды, чтобы создать обнаженные фотографии школьных друзей.

В Великобритании Грэм Биггар, глава Национального агентства по борьбе с преступностью, заявил в декабре, что хочет ужесточить наказания для правонарушителей, владеющих изображениями насилия над детьми, добавив, что изображения насилия над детьми с помощью ИИ «имеют значение, поскольку мы считаем, что просмотр эти изображения — настоящие или созданные искусственным интеллектом — существенно повышают риск того, что правонарушители сами перейдут к сексуальному насилию над детьми».

Некоторые авторы попросили не раскрывать их имена в этой статье.


Добавить комментарий