Компания OpenAI опубликовала новые оценки количества пользователей ChatGPT, у которых наблюдаются возможные признаки психических расстройств, включая манию, психоз или суицидальные мысли.
Компания заявила, что около 0,07% пользователей ChatGPT, активных в течение недели, проявили такие признаки, добавив, что ее чат-бот на основе искусственного интеллекта (ИИ) распознает эти деликатные разговоры и реагирует на них.
Хотя OpenAI утверждает, что подобные случаи «крайне редки», критики отмечают, что даже небольшой процент может составлять сотни тысяч человек, поскольку, по словам руководителя Сэма Альтмана, число еженедельно активных пользователей ChatGPT недавно достигло 800 миллионов.
По мере усиления внимания компания заявила о создании сети экспертов по всему миру, которые будут консультировать ее.
В число этих экспертов входят более 170 психиатров, психологов и врачей общей практики, работающих в 60 странах, сообщает компания.
По данным OpenAI, они разработали серию ответов в ChatGPT, чтобы побудить пользователей обращаться за помощью в реальном мире.
Однако, беглый взгляд на данные компании вызвал недоумение у некоторых специалистов в области психического здоровья.
«Хотя 0,07% кажется небольшим процентом, на уровне населения с сотнями миллионов пользователей это на самом деле может быть довольно много людей», — сказал доктор Джейсон Нагата, профессор, изучающий использование технологий среди молодых людей в Калифорнийском университете в Сан-Франциско.
«ИИ может расширить доступ к поддержке в области психического здоровья и в некотором смысле способствовать его укреплению, но мы должны помнить об ограничениях», — добавил доктор Нагата.
Компания также оценивает, что 0,15% пользователей ChatGPT ведут разговоры, содержащие «явные признаки потенциального суицидального планирования или намерения».
OpenAI заявила, что последние обновления её чат-бота разработаны для того, чтобы «безопасно и чутко реагировать на потенциальные признаки бреда или мании» и замечать «косвенные сигналы потенциального риска самоповреждения или суицида».
ChatGPT также обучен перенаправлять конфиденциальные разговоры, «исходящие из других моделей, в более безопасные», открывая их в новом окне.
В ответ на вопросы BBC о критике количества потенциально затронутых пользователей, OpenAI заявила, что этот небольшой процент пользователей составляет значительную долю, и отметила, что серьёзно относится к изменениям.
Изменения происходят на фоне растущего юридического контроля над взаимодействием ChatGPT с пользователями.
В одном из самых громких исков, недавно поданных против OpenAI, пара из Калифорнии подала в суд на компанию в связи со смертью их сына-подростка, утверждая, что ChatGPT спровоцировал его на самоубийство в апреле.
Иск был подан родителями 16-летнего Адама Рейна и стал первым судебным иском, обвиняющим OpenAI в противоправном причинении смерти.
В другом деле подозреваемый в убийстве и самоубийстве, произошедшем в августе в Гринвиче, штат Коннектикут, опубликовал несколько часов своих разговоров с ChatGPT, которые, по всей видимости, подпитывали бред предполагаемого преступника.
Всё больше пользователей сталкиваются с психозом, вызванным искусственным интеллектом, поскольку «чат-боты создают иллюзию реальности», — заявил профессор Робин Фельдман, директор Института права и инноваций в области искусственного интеллекта Калифорнийского университета. «Это мощная иллюзия».
Она сказала, что OpenAI заслуживает похвалы за «обмен статистикой и усилия по решению проблемы», но добавила: «Компания может выводить на экран всевозможные предупреждения, но человек, находящийся в группе риска, может не прислушаться к ним».
