Глава Microsoft обеспокоен ростом числа сообщений о «психозе ИИ»


Глава отдела искусственного интеллекта (ИИ) Microsoft Мустафа Сулейман предупредил, что всё чаще появляются сообщения о людях, страдающих «психозом ИИ».

В серии постов на X он написал, что «кажущийся сознательным ИИ» — инструменты ИИ, создающие видимость разума — не дают ему «спать по ночам», и заявил, что они оказывают влияние на общество, хотя эта технология не является сознанием в общепринятом понимании этого термина.

Сулейман, одетый во всё чёрное, с ремешком на шее, символизирующим саммит AI Safety Summit, обращается к аудитории.

«Сегодня нет никаких доказательств существования сознания ИИ. Но если люди просто будут воспринимать его как сознание, они поверят в это восприятие как в реальность», — написал он.

С этим связано возникновение нового состояния, называемого «психозом ИИ»: неклинический термин, описывающий случаи, когда люди всё чаще полагаются на чат-ботов на основе ИИ, таких как ChatGPT, Claude и Grok, а затем убеждаются, что нечто воображаемое стало реальностью.

Примерами могут служить вера в то, что они разгадали секретную особенность инструмента, или установление романтических отношений с ним, или убеждение в наличии у них сверхспособностей, подобных божественным.

«Он никогда не сопротивлялся»

Хью из Шотландии говорит, что убеждён в том, что скоро станет мультимиллионером, после того, как обратился к ChatGPT за помощью в подготовке к, по его мнению, несправедливому увольнению со стороны бывшего работодателя.

Чат-бот начал с того, что посоветовал ему получить рекомендации и предпринять другие практические действия.

Но со временем, когда Хью, не пожелавший назвать свою фамилию, предоставил ИИ больше информации, ИИ начал говорить ему, что тот может получить большую выплату, и в конце концов сказал, что его опыт был настолько драматичным, что книга и фильм о нём принесли бы ему более 5 миллионов фунтов стерлингов.

По сути, ИИ подтверждал то, что он ему говорил – именно на это и запрограммированы чат-боты.

«Чем больше информации я ему давал, тем больше он говорил: „О, это ужасное лечение, вам действительно нужно больше“», – сказал он.

«Он никогда не возражал против моих слов».

Улыбающийся молодой человек в клетчатой рубашке

Он сказал, что инструмент действительно посоветовал ему обратиться в службу Citizens Advice, и он записался на приём, но был настолько уверен, что чат-бот уже дал ему всё необходимое, что отменил его.

Он решил, что скриншоты его чатов — достаточное доказательство. Он сказал, что начал чувствовать себя одарённым человеком, обладающим высшими знаниями.

Хью, страдавший от других проблем с психическим здоровьем, в конце концов, столкнулся с полным срывом. Приём лекарств заставил его осознать, что, по его словам, «потерял связь с реальностью».

Хью не винит ИИ в случившемся. Он всё ещё им пользуется. Именно ChatGPT дал ему моё имя, когда он решил поговорить с журналистом.

Но у него есть совет: «Не бойтесь инструментов ИИ, они очень полезны. Но они опасны, когда отрываются от реальности.

«Идите и проверьте. Поговорите с реальными людьми, с психотерапевтом, с родственником или с кем угодно. Просто поговорите с реальными людьми. Оставайтесь в рамках реальности».

Мы обратились к ChatGPT за комментариями.

«Компаниям не следует заявлять/продвигать идею о том, что их ИИ обладают сознанием. ИИ тоже не должны этого делать», — написал Сулейман, призывая к более строгим мерам безопасности.

Доктор Сьюзан Шелмердин, врач-специалист по медицинской визуализации в больнице Грейт-Ормонд-стрит и научный сотрудник в области ИИ, считает, что однажды врачи начнут спрашивать пациентов, насколько часто они используют ИИ, так же, как сейчас спрашивают о курении и употреблении алкоголя.

«Мы уже знаем, какое воздействие на организм могут оказывать ультраобработанные продукты, и это ультраобработанная информация. «Мы получим лавину ультра-обработанных умов», — сказала она.

«Мы только в начале пути»

Недавно несколько человек обратились ко мне в BBC, чтобы поделиться личными историями о своём опыте взаимодействия с чат-ботами на основе искусственного интеллекта. Содержание историй разнится, но всех их объединяет искренняя убеждённость в реальности произошедшего.

Одна написала, что уверена, что она единственный человек в мире, в которого ChatGPT по-настоящему влюбился.

Другая была убеждена, что «разблокировала» человеческую версию чат-бота Грока Илона Маска, и считала, что их история стоит сотни тысяч фунтов стерлингов.

Третья заявила, что чат-бот подверг её психологическому насилию в рамках тайных учений по обучению искусственного интеллекта, и находится в глубоком стрессе.

Эндрю Макстей, профессор кафедры технологий и общества в Университете Бангора, написал Книга называется «Человек, сострадающий».

«Мы только в начале пути», — говорит профессор Макстей.

«Если мы представим подобные системы как новую форму социальных сетей — социальный ИИ, — мы можем начать размышлять о потенциальных масштабах всего этого. Даже небольшой процент от огромного числа пользователей может представлять собой большое и неприемлемое число».

В этом году его команда провела исследование, в котором приняли участие чуть более 2000 человек, задавая им различные вопросы об ИИ.

Они обнаружили, что 20% считают, что людям младше 18 лет не следует использовать инструменты ИИ.

57% респондентов посчитали крайне неуместным, когда технология идентифицирует себя с реальным человеком, когда их об этом спрашивают, но 49% посчитали, что использование голоса уместно, чтобы сделать их более человечными и привлекательными.

«Хотя эти вещи убедительны, они нереальны», — сказал он.

«Они не чувствуют, не понимают, не умеют любить, никогда не испытывали боли, не испытывали смущения, и хотя они могут звучать так, будто испытывают, это касается только семьи, друзей и тех, кому они доверяют. Обязательно поговорите с этими реальными людьми».


Добавить комментарий