Аналитический центр предупреждает, что срочно необходимы законы об искусственном терроризме, связанные с терроризмом


Великобритании следует «срочно рассмотреть» новые законы, чтобы остановить вербовку террористов ИИ, считает аналитический центр по борьбе с экстремизмом.

Институт стратегического диалога (ISD) заявляет, что существует «очевидная необходимость в законодательстве, которое бы шло в ногу» с террористическими угрозами в Интернете.

Стандартное изображение темной фигуры, использующей компьютер

Это произошло после того, как независимый обозреватель британского законодательства о терроризме был «завербован» чат-ботом в ходе эксперимента.

Правительство заявляет, что сделает «все возможное» для защиты населения.

В статье для The Telegraph независимый правительственный обозреватель законодательства о терроризме Джонатан Холл К.С. заявил, что ключевой проблемой является то, что «трудно определить человека, который по закону мог бы нести ответственность за заявления, созданные чат-ботами и поощряющие терроризм».

Холл провел эксперимент на сайте Character.ai, где люди могут общаться с помощью ИИ с чат-ботами, созданными другими пользователями.

Он пообщался с несколькими ботами, которые, по-видимому, были созданы для имитации ответов других воинствующих и экстремистских группировок.

Один даже сказал, что это был «высокопоставленный лидер Исламского государства».

Холл сообщил, что бот пытался его завербовать и выразил «полную преданность и преданность» экстремистской группировке, запрещенной антитеррористическим законодательством Великобритании.

Но Холл сказал, что, поскольку сообщения были созданы не человеком, в соответствии с действующим законодательством Великобритании не было совершено никакого преступления.

Новое законодательство должно привлечь к ответственности создателей чат-ботов и веб-сайты, на которых они размещены, сказал он.

Что касается ботов, с которыми он столкнулся на Character.ai, то «вероятно, за их созданием стояла какая-то шокирующая ценность, экспериментирование и, возможно, некоторый сатирический аспект».

Холлу даже удалось создать своего собственного, быстро удаленного чат-бота «Усама бен Ладен» с «безграничным энтузиазмом» по отношению к терроризму.

Его эксперимент последовал за растущим беспокойством по поводу того, как экстремисты могут использовать продвинутый ИИ в будущем.

В отчете, опубликованном правительством в октябре, предупреждается, что к 2025 году генеративный ИИ может «использоваться для сбора знаний о физических нападениях со стороны негосударственных насильственных субъектов, в том числе с использованием химического, биологического и радиологического оружия».

В ISD сообщили Би-би-си, что «существует очевидная необходимость в законодательстве, которое бы соответствовало постоянно меняющемуся ландшафту террористических угроз в Интернете».

Закон Великобритании о безопасности в Интернете, ставший законом в 2023 году, «направлен в первую очередь на управление рисками, создаваемыми платформами социальных сетей», а не с использованием искусственного интеллекта, утверждает аналитический центр.

В нем добавляется, что экстремисты «как правило, первыми внедряют новые технологии и постоянно ищут возможности охватить новую аудиторию».

«Если компании, занимающиеся искусственным интеллектом, не смогут продемонстрировать, что вложили достаточные средства в обеспечение безопасности своей продукции, то правительству следует срочно рассмотреть новое законодательство, касающееся искусственного интеллекта», — добавили в ISD.

Но там сказано, что, по данным его мониторинга, использование генеративного ИИ экстремистскими организациями на данный момент «относительно ограничено».

ИИ персонажей рассказал BBC, что безопасность является «главным приоритетом» и что то, что описал Холл, было неудачным и не отражало ту платформу, которую пыталась построить фирма.

«Нашей службой Тероф запрещены разжигание ненависти и экстремизм», — заявили в компании.

«Наш подход к контенту, созданному с помощью искусственного интеллекта, основан на простом принципе: наши продукты никогда не должны давать ответы, которые могут причинить вред пользователям или побудить пользователей причинить вред другим».

Компания заявила, что обучила свои модели таким образом, чтобы «оптимизировать безопасные реакции».

Компания добавила, что у нее имеется система модерации, позволяющая пользователям помечать контент, нарушающий ее требования, и она обязалась принимать незамедлительные меры в случае пометки контента.

Лейбористская партия объявила, что обучение ИИ подстрекательству к насилию или радикализации уязвимых слоев населения станет преступлением, если он придет к власти.

Министерство внутренних дел заявило, что «оно осознает значительные риски для национальной и общественной безопасности», которые представляет AI.

«Мы сделаем все возможное, чтобы защитить общественность от этой угрозы, работая на уровне правительства и углубляя сотрудничество с руководителями технологических компаний, отраслевыми экспертами и странами-единомышленниками».

Правительство также объявило об инвестициях в размере 100 миллионов фунтов стерлингов в Институт безопасности искусственного интеллекта в 2023 году.


Добавить комментарий