Китай предложил новые строгие правила для искусственного интеллекта (ИИ), чтобы обеспечить защиту детей и предотвратить предоставление чат-ботами советов, которые могут привести к членовредительству или насилию.
Согласно планируемым правилам, разработчики также должны будут гарантировать, что их модели ИИ не будут генерировать контент, пропагандирующий азартные игры.
Это объявление последовало за резким ростом числа чат-ботов, запускаемых в Китае и по всему миру.
После завершения разработки правила будут применяться к продуктам и услугам ИИ в Китае, что станет важным шагом в регулировании быстрорастущей технологии, которая в этом году подверглась пристальному вниманию из-за проблем с безопасностью.
Проект правил, опубликованный в выходные дни Управлением по киберпространству Китая (CAC), включает меры по защите детей. Они включают требование к ИИ сначала предлагать персонализированные настройки, устанавливать временные ограничения на использование и получать согласие опекунов перед предоставлением услуг эмоционального общения.
Администрация заявила, что операторы чат-ботов должны передавать любой разговор, связанный с самоубийством или членовредительством, человеку и немедленно уведомлять опекуна пользователя или контактное лицо на случай чрезвычайной ситуации.
Поставщики услуг ИИ должны гарантировать, что их сервисы не создают и не распространяют «контент, который угрожает национальной безопасности, наносит ущерб национальной чести и интересам [или] подрывает национальное единство», говорится в заявлении.
Комитет по контролю за технологическими разработками (CAC) заявил, что поощряет внедрение ИИ, например, для продвижения местной культуры и создания инструментов для общения пожилых людей, при условии, что технология безопасна и надежна. Он также призвал общественность к обратной связи.
Китайская компания DeepSeek, занимающаяся разработкой ИИ, в этом году попала в заголовки мировых новостей после того, как возглавила рейтинги загрузок приложений.
В этом месяце два китайских стартапа Z.ai и Minimax, которые вместе имеют десятки миллионов пользователей, объявили о планах выхода на фондовый рынок.
Технология быстро набрала огромное количество подписчиков, некоторые из которых используют её для общения или терапии.
Влияние ИИ на поведение человека в последние месяцы подвергается всё более пристальному вниманию.
Сэм Альтман, глава компании OpenAI, создавшей ChatGPT, заявил в этом году, что реакция чат-ботов на разговоры о самоповреждении является одной из самых сложных проблем компании.
В августе семья из Калифорнии подала в суд на OpenAI в связи со смертью своего 16-летнего сына, утверждая, что ChatGPT подстрекал его к самоубийству. Этот иск стал первым судебным разбирательством, обвиняющим OpenAI в причинении смерти по неосторожности.
В этом месяце компания разместила объявление о вакансии «руководителя отдела готовности», который будет отвечать за защиту от рисков, связанных с моделями ИИ, для психического здоровья человека и кибербезопасности.
Успешный кандидат будет отвечать за отслеживание рисков, связанных с ИИ, которые могут представлять опасность для людей. Альтман сказал: «Это будет стрессовая работа, и вы практически сразу окажетесь в гуще событий».
Если вы испытываете стресс или отчаяние и нуждаетесь в поддержке, вы можете обратиться к медицинскому работнику или в организацию, которая оказывает поддержку. Подробную информацию о помощи, доступной во многих странах, можно найти на сайте Befrienders Worldwide: www.befrienders.org.
В Великобритании список организаций, которые могут помочь, доступен на сайте bbc.co.uk/actionline. Читатели в США и Канаде могут позвонить на горячую линию по предотвращению самоубийств 988 или посетить ее веб-сайт.
