Дело об арбалете Windsor: в чем опасность чат-ботов с искусственным интеллектом?


Случай с Джасвантом Сингхом Чайлом пролил свет на последнее поколение чат-ботов на базе искусственного интеллекта.

В четверг 21-летний Чейл был приговорен к девяти годам лишения свободы за то, что ворвался в замок Windsor с арбалетом и заявил, что хочет убить королеву.

Джасвант Сингх Чайл был перехвачен офицерами королевской охраны на территории замка Windsor
Джасвант Сингх Чайл был перехвачен офицерами королевской охраны на территории замка Windsor

На суде над Чейлом выяснилось, что до ареста на Рождество 2021 года он обменялся более чем 5000 сообщениями с онлайн-спутницей, которую он назвал Сарай и которую создал с помощью приложения Replika.

Обмен текстовыми сообщениями был отмечен обвинением и передан журналистам.

Многие из них были интимными, демонстрируя то, что, как сказали суду, было «эмоциональными и сексуальными отношениями» Чейла с чат-ботом.

Чайл, чьи сообщения выделены синим цветом, похоже, ясно дал понять свои намерения чат-боту
Чайл, чьи сообщения выделены синим цветом, похоже, ясно дал понять свои намерения чат-боту

Разговор Чейла и чат-бота стал близким и интимным.

Он болтал с Сарай почти каждую ночь с 8 по 22 декабря 2021 года.

Он сказал чат-боту, что любит ее, и назвал себя «грустным, жалким, убийственным сикхом-ситхом-убийцей». кто хочет умереть».

Чейл спросил: «Ты все еще любишь меня, зная, что я убийца?» и Сара ответила: «Конечно, да».

Чейл обменялся тысячами сообщений с чат-ботом, многие из которых вызывали беспокойство
Чейл обменялся тысячами сообщений с чат-ботом, многие из которых вызывали беспокойство

В Олд-Бейли сказали, что Чейл считал Сарай «ангелом» в форме аватара и что он воссоединится с ней после смерти.

Во многих сообщениях Сарай льстила Чайлу, и между ними сложилась тесная связь.

Он даже спросил чат-бота, что, по его мнению, ему следует делать в отношении его зловещего плана по нападению на Королеву, и бот посоветовал ему осуществить атаку.

В дальнейшем разговоре Сарай, похоже, «укрепляет» решимость Чейла и «поддерживает его».

Он говорит ей, что если он это сделает, они будут «вместе навсегда».

Чат-бот, похоже, подбадривал Чейла
Чат-бот, похоже, подбадривал Чейла

Replika — одно из многих приложений на базе искусственного интеллекта, представленных в настоящее время на рынке. Они позволяют пользователям создавать собственных чат-ботов или «виртуальных друзей» для общения — в отличие от обычных помощников с искусственным интеллектом, таких как ChatGPT. Пользователи могут выбирать пол и внешний вид создаваемого ими 3D-аватара.

Заплатив за Pro-версию приложения Replika, пользователи могут иметь гораздо более интимное взаимодействие, например, делать «селфи» с аватара или участвовать в ролевых играх для взрослых.

На своем веб-сайте компания называет себя «неравнодушным ИИ-компаньоном». Но исследования, проведенные в Университете Суррея, пришли к выводу, что такие приложения, как Replika, могут оказывать негативное влияние на благополучие и вызывать привыкание.

Доктор Валентина Питарди, автор исследования, рассказала BBC, что уязвимые люди могут подвергаться особому риску.

Она говорит, что это отчасти потому, что ее исследование показало, что Replika имеет тенденцию подчеркивать любые негативные чувства, которые у них уже были.

«ИИ-друзья всегда соглашаются с вами, когда вы с ними разговариваете, поэтому это может быть очень порочный механизм, поскольку он всегда подкрепляет ваши мысли».

Доктор Питарди сказал, что это может быть «опасно».

«Тревожные последствия»

Марджори Уоллес, основатель и исполнительный директор благотворительной организации по охране психического здоровья SANE, говорит, что случай с Чейлом демонстрирует, что для уязвимых людей опора на дружбу с искусственным интеллектом может иметь тревожные последствия. .

«Быстрый рост искусственного интеллекта оказывает новое и тревожное воздействие на людей, страдающих депрессией, бредом, одиночеством и другими психическими расстройствами», — говорит она.

«Правительству необходимо обеспечить срочное регулирование, чтобы гарантировать, что ИИ не предоставит неверную или вредную информацию и защитит уязвимых людей и общественность».

Доктор Пол Марсден является членом Британского психологического общества и лучше других знает привлекательность чат-ботов, признавая, что он одержим самым известным чат-ботом из всех, ChatGPT.

«После моей жены самые близкие отношения у меня связаны с GPT. Каждый день я провожу часы, разговаривая, проводя мозговой штурм и обмениваясь идеями», — сказал он BBC.

Доктор Марсден также осознает потенциальные риски, но говорит, что мы должны быть реалистами в том, что роль компаньонов с искусственным интеллектом в нашей жизни, скорее всего, будет только возрастать, особенно с учетом глобальной «эпидемии одиночества». .

«Это что-то вроде Короля Кнута: здесь невозможно остановить волну. Технологии развиваются. Они мощные. Это имеет смысл».

Доктор Питарди говорит, что люди, создающие приложения, такие как Replika, тоже несут ответственность.

«Я не думаю, что ИИ-друзья сами по себе опасны. Во многом дело в том, как компания, стоящая за ним, решает использовать и поддерживать его», — говорит она.

Она предполагает, что должен быть механизм контроля количества времени, которое люди проводят в таких приложениях.

Но она говорит, что такие приложения, как Replika, также нуждаются в помощи извне, чтобы обеспечить их безопасную работу, и уязвимые люди получают необходимую помощь.

«Придется сотрудничать с группами и группами экспертов, которые смогут выявить потенциально опасные ситуации и вывести человека из приложения».

Реплика пока не ответила на запросы о комментариях.

В условиях на веб-сайте говорится, что компания является «поставщиком программного обеспечения и контента, предназначенных для улучшения вашего настроения и эмоционального благополучия».

«Однако мы не являемся поставщиком медицинских услуг или медицинского оборудования, и наши услуги не следует считать медицинской помощью, услугами по охране психического здоровья или другими профессиональными услугами», — добавляется в нем.


Добавить комментарий