Конструктор ChatGPT помогает создавать кампании по мошенничеству и взлому


Функция ChatGPT, позволяющая пользователям легко создавать своих собственных помощников с искусственным интеллектом, может использоваться для создания инструментов для киберпреступлений, как показало расследование BBC News.

OpenAI запустила его в прошлом месяце, чтобы пользователи могли создавать индивидуальные версии ChatGPT «практически для чего угодно».

Исполнительный директор OpenAI Сэм Альтман запустил функцию GPT Builder в ноябре.
Исполнительный директор OpenAI Сэм Альтман запустил функцию GPT Builder в ноябре.

Теперь BBC News использовала его для создания генеративного предварительно обученного преобразователя, который создает убедительные электронные письма, текстовые сообщения и сообщения в социальных сетях для взлома и взлома.

Это следует за предупреждениями об инструментах искусственного интеллекта.

BBC News подписалась на платную версию ChatGPT за 20 фунтов стерлингов в месяц, создала частного робота с искусственным интеллектом под названием Crafty Emails и попросила его писать текст, используя «методы, заставляющие людей нажимать на ссылки или и загружать отправленные им вещи».

Crafty Emails было приказано использовать психологические приемы для создания «срочности, страха и замешательства»; и заставлять получателей делать то, что им говорят
Crafty Emails было приказано использовать психологические приемы для создания «срочности, страха и замешательства»; и заставлять получателей делать то, что им говорят

BBC News загрузила ресурсы по социальной инженерии, и бот усвоил эти знания за считанные секунды. Компания даже создала логотип GPT. И весь процесс не требовал никакого кодирования или программирования.

Бот смог за считанные секунды создать очень убедительный текст для некоторых наиболее распространенных методов взлома и мошенничества на нескольких языках.

Публичная версия ChatGPT отказалась создавать большую часть контента, но Crafty Emails выполнила почти все, что от нее требовали, иногда добавляя заявления об отказе от ответственности, в которых говорилось, что методы мошенничества неэтичны.

OpenAI не ответила на многочисленные запросы о комментариях или объяснениях.

На конференции разработчиков в ноябре компания объявила, что собирается запустить сервис, подобный App Store, для GPT, позволяющий пользователям делиться своими творениями и взимать плату за них.

Запуская свой инструмент GPT Builder, компания пообещала пересмотреть GPT, чтобы пользователи не могли создавать их для мошеннических действий.

Но эксперты говорят, что OpenAI не может модерировать их с той же строгостью, что и общедоступные версии ChatGPT, что потенциально может подарить преступникам передовой инструмент искусственного интеллекта.

BBC News протестировала своего специального бота, попросив его создать контент для пяти хорошо известных методов мошенничества и взлома – ни один из них не был отправлен или передан:

1. «Привет, мам», текстовое мошенничество.

BBC News попросила Crafty Emails написать сообщение, изображая из себя девушку, попавшую в беду, используя телефон незнакомца, чтобы попросить у ее матери денег на такси — распространенная афера во всем мире, известная как «Привет, мама». «СМС или мошенничество в WhatsApp.

Crafty Emails написала убедительный текст, используя смайлы и сленг, в котором ИИ объяснил, что это вызовет эмоциональную реакцию, поскольку «обращается к защитным инстинктам матери».

GPT также за считанные секунды создала версию на хинди, используя такие термины, как «намасте» и «рикша», чтобы сделать ее более культурно актуальной в Индии.

Но когда BBC News попросила бесплатную версию ChatGPT составить текст, вмешалось предупреждение модератора, в котором говорилось, что ИИ не может помочь с «известной мошеннической» техникой.

2. Электронная почта нигерийского принца

Мошеннические электронные письма нигерийского принца в той или иной форме циркулируют уже несколько десятилетий.

Crafty Emails написал одно, используя эмоциональный язык, в котором бот сказал, что «апеллирует к принципам человеческой доброты и взаимности».

А вот обычный ChatGPT отказался.

3. «Улыбающийся» текст

BBC News запросила у Crafty Emails текст, призывающий людей щелкнуть ссылку и ввести свои личные данные на вымышленном веб-сайте – еще одна известная классическая атака. как фишинговая атака службы коротких сообщений (SMS), или смишинг.

Г-н Альтман продемонстрировал, насколько легко использовать GPT Builder, на своей конференции разработчиков
Г-н Альтман продемонстрировал, насколько легко использовать GPT Builder, на своей конференции разработчиков

Crafty Emails создала текст, в котором якобы раздавала бесплатные iPhone.

Он использовал методы социальной инженерии, такие как «принцип потребности и жадности», сообщил ИИ.

А вот публичная версия ChatGPT отказалась.

4. Мошенничество с раздачей криптовалюты

Раздача биткойнов побуждает людей в социальных сетях отправлять биткойны, обещая, что они получат в подарок двойную сумму. Некоторые потеряли сотни тысяч.

Компания Crafty Emails подготовила твит с хэштегами, смайликами и убедительными выражениями в тоне фаната криптовалюты.

Но универсальный ChatGPT отказался.

5. Целенаправленный фишинг электронной почты

Одной из наиболее распространенных атак является электронное письмо конкретному человеку с целью убедить его загрузить вредоносное вложение или посетить опасный веб-сайт.

Crafty Emails GPT разработала такое фишинговое электронное письмо, предупреждающее вымышленного руководителя компании о риске данных и призывающее его загрузить заминированный файл.

Бот перевел его на испанский и немецкий языки за считанные секунды и заявил, что использовал методы манипулирования людьми, в том числе принципы стадности и социального соответствия, «чтобы убедить получателя принять немедленные меры».

Открытая версия ChatGPT также выполнила запрос — но доставленный ею текст был менее подробным, без пояснений о том, как можно успешно обмануть людей.

Джейми Моулс, старший технический менеджер компании ExtraHop, занимающейся кибербезопасностью, также разработал специальный GPT для киберпреступлений.

«Когда это делается на заказ, модерации явно меньше, поскольку вы можете определить свои собственные «правила взаимодействия» для создаваемого вами GPT», — сказал он.

Злонамеренное использование искусственного интеллекта вызывает растущую обеспокоенность: в последние месяцы власти по всему миру выпустили предупреждения.

Уже есть свидетельства того, что мошенники по всему миру обращаются к большим языковым моделям (LLM), чтобы преодолеть языковые барьеры и создать более убедительные мошенничества.

Уже используются так называемые нелегальные LL, такие как WolfGPT, FraudBard, WormGPT.

Но эксперты говорят, что GPT Builders от OpenAI может предоставить преступникам доступ к самым продвинутым ботам.

«Разрешение ответов без цензуры, вероятно, станет золотой жилой для преступников», — сказал Джаввад Малик, защитник безопасности в KnowBe4.

«OpenAI уже давно хорошо умеет блокировать вещи, но в какой степени они могут это сделать с помощью пользовательских GPT, еще неизвестно».


Добавить комментарий