Может ли ИИ изменить облик кибербезопасности?


Исследователи из CSAIL работают над платформой искусственного интеллекта, которая уже способна обнаруживать 85% кибератак и дает представление о будущем, в котором люди больше не будут нужны для защиты бизнес-систем. Какую ответственность можно возложить на «роботов», чтобы они выполняли работу профессионалов в области безопасности?

Компании сталкиваются с постоянно растущей проблемой защиты своих активов от киберпреступников. Изощренность и частота атак продолжают расти, поскольку эти преступники используют преимущества быстро развивающихся технологий. Даже при использовании новейших машинных систем безопасности становится все труднее отличить настоящего сотрудника или посетителя веб-сайта от преступника, стремящегося взломать или вывести из строя их сеть и системы.

Специалисты по кибербезопасности сталкиваются с перспективой того, что они достигли стеклянного потолка с точки зрения того, чего могут достичь люди. Зависит ли будущее кибербезопасности от роботов?

В апреле 2016 года Лаборатория компьютерных наук и искусственного интеллекта (CSAIL) Массачусетского технологического института анонсировала платформу искусственного интеллекта под названием AI2.

AI2, разработанный в партнерстве со стартапом в области машинного обучения PatternEx, вызывает интересную дискуссию о будущей роли искусственного интеллекта в защите организации от кибератак и о том, в какой степени предприятия доверяют роботам заботу о своей безопасности.

В настоящее время AI2 использует неконтролируемое машинное обучение для анализа данных и обнаружения подозрительной активности. Затем его результаты передаются экспертам по кибербезопасности (людям), которые подтверждают, является ли предполагаемая деятельность атакой или ложным срабатыванием. Затем машина принимает это обучение и включает его в следующий набор данных, непрерывно обучаясь и совершенствуясь.

В этом видео упрощенно описывается, как работает платформа:

По состоянию на апрель 2016 года платформа проанализировала более 3,6 миллиарда строк журнала, выявив 85 процентов атак. Это в три раза эффективнее, чем существующие тесты, достигнутые платформами машинного обучения. Система также способна в пять раз сократить количество ложных срабатываний.

Какими бы впечатляющими ни были достижения AI2, маловероятно, что профессионалы в области кибербезопасности готовы передать ответственность за защиту своих систем. Особенно учитывая, что платформа по-прежнему требует вмешательства человека, чтобы учиться и совершенствоваться. Также неясно, какие действия предпринимает система в случае атаки и автоматизирована ли эта защита.

Пока что можно найти достижения, когда люди и машины работают вместе. Машины могут выполнять тяжелую работу, сканировать до 1 миллиона строк журнала в день — задача, на которую группа экспертов может потратить месяцы, определяя основные области, над которыми команда должна работать. Люди выявляют ложные срабатывания и принимают меры, чтобы помочь машинам научиться работать более эффективно.

Несмотря на значительные улучшения, продемонстрированные MIT и PatternX, система по-прежнему пропускает 15% реальных атак. От людей по-прежнему требуется восполнить этот пробел, чтобы обеспечить безопасность организации. Кроме того, AI2 по-прежнему полагается на людей для обучения. Без этого платформа была бы далеко не такой эффективной.

Хотя на данный момент кажется, что люди должны лидировать в области защиты от кибербезопасности, используя системы безопасности на базе машин для расширения наших усилий, AI2 демонстрирует, что системы обнаружения и защиты кибербезопасности развиваются быстрыми темпами.

Время, когда всеохватывающие платформы безопасности с искусственным интеллектом можно будет оставить в покое для защиты нашего бизнеса, кажется, все ближе.

Эдвард Джонс работает в Firebrand Training, провайдере ускоренного ИТ-обучения. Он активно работает, чтобы служить ИТ-сообществу новостями, обзорами и техническими инструкциями.


Добавить комментарий