Microsoft признала ошибку, из-за которой ее ИИ-помощник по ошибке получил доступ к конфиденциальным электронным письмам некоторых пользователей и обобщил их.
Технологический гигант рекламировал Microsoft 365 Copilot Chat как безопасный способ использования генеративного чат-бота с искусственным интеллектом для рабочих мест и их сотрудников.
Однако компания заявила, что недавняя проблема привела к тому, что инструмент показал некоторым корпоративным пользователям информацию из сообщений, хранящихся в черновиках и папках отправленных писем, включая те, которые помечены как конфиденциальные.
Microsoft заявляет, что выпустила обновление для исправления проблемы и что она «не предоставляла никому доступ к информации, к которой они не имели права доступа».
Тем не менее, некоторые эксперты предупредили, что скорость, с которой компании конкурируют за добавление новых функций ИИ, означает, что подобные ошибки неизбежны.
Чат Copilot можно использовать в программах Microsoft, таких как Outlook и Teams, для работы с электронной почтой и чатом, для получения ответов на вопросы или краткого изложения сообщений.
«Мы выявили и устранили проблему, из-за которой чат Microsoft 365 Copilot мог возвращать содержимое электронных писем, помеченных как конфиденциальные, созданных пользователем и хранящихся в черновиках и отправленных сообщениях на рабочем столе Outlook», — сообщил представитель Microsoft BBC News.
«Хотя наши средства контроля доступа и политики защиты данных остались неизменными, такое поведение не соответствовало задуманному нами функционалу Copilot, который предназначен для исключения доступа к защищенному контенту», — добавили они.
«Обновление конфигурации было развернуто по всему миру для корпоративных клиентов».
Об этой ошибке впервые сообщило технологическое новостное издание Bleeping Computer, которое заявило, что получило уведомление о проблеме.
В сообщении цитируется уведомление Microsoft, в котором говорится, что «электронные письма пользователей с пометкой «конфиденциально» некорректно обрабатываются чатом Microsoft 365 Copilot».
В уведомлении также указывается, что вкладка «Работа» в Copilot Chat суммирует электронные письма, хранящиеся в папках «Черновики» и «Отправленные» пользователя, даже если они имеют пометку «конфиденциальность» и настроенную политику предотвращения потери данных, препятствующую несанкционированному обмену данными.
По сообщениям, Microsoft впервые узнала об ошибке в январе.
Уведомление об ошибке также было опубликовано на панели поддержки для сотрудников NHS в Англии, где основная причина связана с «проблемой в коде».
Раздел уведомления на сайте ИТ-поддержки NHS подразумевает, что он был затронут.
Однако в сообщении для BBC News говорится, что содержимое любых черновиков или отправленных писем, обрабатываемых Copilot Chat, останется у их создателей, и информация о пациентах не была раскрыта.
«Утечка данных неизбежна»
Корпоративные инструменты искусственного интеллекта, такие как Microsoft 365 Copilot Chat, доступные организациям с подпиской на Microsoft 365, часто имеют более строгие средства контроля и защиты, предотвращающие обмен конфиденциальной корпоративной информацией.
Однако для некоторых экспертов эта проблема по-прежнему подчеркивает риски внедрения инструментов генеративного ИИ в определенных рабочих средах.
Надер Хенейн, аналитик по защите данных и управлению ИИ в Gartner, сказал, что «подобные ошибки неизбежны», учитывая частоту выпуска «новых и оригинальных возможностей ИИ».
В интервью BBC News он сказал, что организациям, использующим эти продукты ИИ, часто не хватает инструментов, необходимых для защиты и управления каждой новой функцией.
«В обычных условиях организации просто отключали бы эту функцию и ждали бы, пока система управления не будет усовершенствована», — сказал Хенейн.
«К сожалению, давление, вызванное потоком необоснованной шумихи вокруг ИИ, делает это практически невозможным», — добавил он.
Профессор Алан Вудворд из Университета Суррея, эксперт по кибербезопасности, заявил, что это демонстрирует важность того, чтобы такие инструменты были по умолчанию приватными и предоставлялись только по желанию пользователя.
«В этих инструментах неизбежно будут ошибки, особенно по мере их стремительного развития, поэтому, даже если утечка данных не будет преднамеренной, она произойдет», — сказал он BBC News.
