Компания, занимающаяся разработкой ИИ, заявила, что китайские шпионы использовали её технологию для автоматизации кибератак


Создатели чат-бота на основе искусственного интеллекта (ИИ) Claude утверждают, что поймали хакеров, спонсируемых китайским правительством, которые использовали этот инструмент для проведения автоматизированных кибератак против примерно 30 международных организаций.

Компания Anthropic заявила, что хакеры обманом заставили чат-бота выполнять автоматизированные задачи под видом исследования кибербезопасности.

Приложение Claude на экране телефона. Это оранжевый логотип с белой вставкой посередине.

Компания заявила в своём блоге, что это «первая зарегистрированная кампания кибершпионажа, организованная ИИ».

Однако скептики сомневаются в точности этого заявления и его мотивах.

Компания Anthropic заявила, что обнаружила попытки взлома в середине сентября.

Выдавая себя за настоящих специалистов по кибербезопасности, хакеры давали чат-боту небольшие автоматизированные задания, которые в совокупности составляли «сложную шпионскую кампанию».

Исследователи из Anthropic заявили, что у них «высокая уверенность», что лица, осуществившие атаки, были «группой, спонсируемой китайским государством».

Они заявили, что цели были выбраны людьми — крупными технологическими компаниями, финансовыми учреждениями, химическими производственными предприятиями и государственными учреждениями, — но компания отказалась предоставить более подробную информацию.

Затем хакеры создали некую программу, используя помощь Клода в программировании, чтобы «автономно взломать выбранную цель с минимальным участием человека».

Anthropic утверждает, что чат-бот смог успешно взломать несколько неназванных организаций, извлечь конфиденциальные данные и проанализировать их в поисках ценной информации.

Компания заявила, что с тех пор запретила хакерам использовать чат-бот и уведомила пострадавшие компании и правоохранительные органы.

Однако Мартин Зугец из киберкомпании Bitdefender заявил, что мир кибербезопасности неоднозначно воспринял эту новость.

«В отчёте Anthropic содержатся смелые, спекулятивные заявления, но нет проверяемых данных об угрозах», — сказал он.

«Хотя отчёт действительно выявляет растущую проблему, нам важно получить как можно больше информации о том, как происходят эти атаки, чтобы мы могли оценить и определить истинную опасность атак с использованием ИИ».

Хакеры ИИ

Заявление Anthropic, пожалуй, самый громкий пример компаний, заявляющих об использовании злоумышленниками инструментов ИИ для автоматизированных взломов.

Многие опасались подобной опасности, но другие компании, работающие в сфере ИИ, также заявляли, что их продукты использовались хакерами, представляющими государственные органы.

В феврале 2024 года компания OpenAI опубликовала в блоге сообщение, опубликованное совместно с киберэкспертами из Microsoft, в котором говорилось, что компания пресекла деятельность пяти государственных структур, в том числе нескольких из Китая.

«Эти злоумышленники, как правило, стремились использовать сервисы OpenAI для поиска информации из открытых источников, перевода, поиска ошибок в коде и выполнения базовых задач по программированию», — заявила тогда компания.

Anthropic не сообщила, на каком основании она пришла к выводу о связи хакеров, участвовавших в этой последней кампании, с китайским правительством.

Это произошло на фоне критики некоторых компаний, занимающихся кибербезопасностью, за чрезмерное преувеличение случаев использования ИИ хакерами.

Критики утверждают, что эта технология всё ещё слишком громоздка для автоматизированных кибератак.

В ноябре киберэксперты из Google опубликовали исследование, в котором подчеркнули растущую обеспокоенность по поводу использования ИИ хакерами для создания совершенно новых вредоносных программ.

Однако в статье сделан вывод о том, что эти инструменты оказались не слишком успешными и находились лишь на стадии тестирования.

Индустрия кибербезопасности, как и индустрия ИИ, спешит заявить, что хакеры используют эту технологию для атак на компании, чтобы повысить интерес к их собственным продуктам.

В своём блоге Anthropic утверждает, что ответом на борьбу с ИИ-атаками является использование ИИ-защитников.

«Самые возможности, которые позволяют использовать Claude в этих атаках, также делают его критически важным для киберзащиты», — заявила компания.

Anthropic признала, что её чат-бот допускал ошибки. Например, он подделывал поддельные имена пользователей и пароли и утверждал, что извлекал секретную информацию, которая на самом деле была общедоступна.

«Это остаётся препятствием для полностью автономных кибератак», — заявила Anthropic.


Добавить комментарий