Китай планирует ввести новые правила для ИИ, чтобы защитить детей и бороться с риском самоубийств


Китай предложил новые строгие правила для искусственного интеллекта (ИИ), чтобы обеспечить защиту детей и предотвратить предоставление чат-ботами советов, которые могут привести к членовредительству или насилию.

Согласно планируемым правилам, разработчики также должны будут гарантировать, что их модели ИИ не будут генерировать контент, пропагандирующий азартные игры.

Девочка с хвостиком смотрит видео в социальных сетях на мобильном телефоне с тройным креплением в крупнейшем в мире флагманском магазине Huawei в Шанхае, Китай.

Это объявление последовало за резким ростом числа чат-ботов, запускаемых в Китае и по всему миру.

После завершения разработки правила будут применяться к продуктам и услугам ИИ в Китае, что станет важным шагом в регулировании быстрорастущей технологии, которая в этом году подверглась пристальному вниманию из-за проблем с безопасностью.

Проект правил, опубликованный в выходные дни Управлением по киберпространству Китая (CAC), включает меры по защите детей. Они включают требование к ИИ сначала предлагать персонализированные настройки, устанавливать временные ограничения на использование и получать согласие опекунов перед предоставлением услуг эмоционального общения.

Администрация заявила, что операторы чат-ботов должны передавать любой разговор, связанный с самоубийством или членовредительством, человеку и немедленно уведомлять опекуна пользователя или контактное лицо на случай чрезвычайной ситуации.

Поставщики услуг ИИ должны гарантировать, что их сервисы не создают и не распространяют «контент, который угрожает национальной безопасности, наносит ущерб национальной чести и интересам [или] подрывает национальное единство», говорится в заявлении.

Комитет по контролю за технологическими разработками (CAC) заявил, что поощряет внедрение ИИ, например, для продвижения местной культуры и создания инструментов для общения пожилых людей, при условии, что технология безопасна и надежна. Он также призвал общественность к обратной связи.

Китайская компания DeepSeek, занимающаяся разработкой ИИ, в этом году попала в заголовки мировых новостей после того, как возглавила рейтинги загрузок приложений.

В этом месяце два китайских стартапа Z.ai и Minimax, которые вместе имеют десятки миллионов пользователей, объявили о планах выхода на фондовый рынок.

Технология быстро набрала огромное количество подписчиков, некоторые из которых используют её для общения или терапии.

Влияние ИИ на поведение человека в последние месяцы подвергается всё более пристальному вниманию.

Сэм Альтман, глава компании OpenAI, создавшей ChatGPT, заявил в этом году, что реакция чат-ботов на разговоры о самоповреждении является одной из самых сложных проблем компании.

В августе семья из Калифорнии подала в суд на OpenAI в связи со смертью своего 16-летнего сына, утверждая, что ChatGPT подстрекал его к самоубийству. Этот иск стал первым судебным разбирательством, обвиняющим OpenAI в причинении смерти по неосторожности.

В этом месяце компания разместила объявление о вакансии «руководителя отдела готовности», который будет отвечать за защиту от рисков, связанных с моделями ИИ, для психического здоровья человека и кибербезопасности.

Успешный кандидат будет отвечать за отслеживание рисков, связанных с ИИ, которые могут представлять опасность для людей. Альтман сказал: «Это будет стрессовая работа, и вы практически сразу окажетесь в гуще событий».

Если вы испытываете стресс или отчаяние и нуждаетесь в поддержке, вы можете обратиться к медицинскому работнику или в организацию, которая оказывает поддержку. Подробную информацию о помощи, доступной во многих странах, можно найти на сайте Befrienders Worldwide: www.befrienders.org.

В Великобритании список организаций, которые могут помочь, доступен на сайте bbc.co.uk/actionline. Читатели в США и Канаде могут позвонить на горячую линию по предотвращению самоубийств 988 или посетить ее веб-сайт.


Добавить комментарий