Безопасность искусственного интеллекта на онлайн-конференции: интервью с Яном Гудфеллоу


Чтобы узнать больше о предстоящем онлайн-мероприятии AI With the Best, мы поговорили с Яном Гудфеллоу, одним из основных докладчиков мероприятия. Мы также воспользовались возможностью, чтобы узнать больше о его областях исследований, генеративных состязательных сетях и безопасности машинного обучения, а также задать несколько вопросов о нейронных сетях в целом.

IProgrammer: Мы понимаем, что вы в третий раз выступаете на AI With the Best и помогаете организовать мероприятие, которое проходит в Интернете, что, кажется, становится довольно популярным.
Ян Гудфеллоу: Да, онлайн-конференции предлагают несколько преимуществ по сравнению с личными конференциями. На посещение уходит меньше времени и денег. Они вызывают меньшее глобальное потепление. Для большой аудитории более естественно взаимодействовать с одним выступающим. Презентации можно приостанавливать и воспроизводить повторно. Презентации станут доступны остальному миру раньше. Я добровольно выступаю в качестве советника после проведения самоорганизующейся конференции в OpenAI в прошлом году, и моя роль состоит в том, чтобы помочь выбрать докладчиков и организовать расписание.
IP: Найти 100 спикеров для записи четырех треков кажется амбициозной задачей, получается?
Йен Гудфеллоу: Мы хорошо находим спикеров, Джефф Хинтон, Йошуа Бенжио и Сэм Альтман, все из которых являются основными докладчиками, все согласились выступить очень рано. [ОБНОВЛЕНИЕ: Хинтон, похоже, больше не участвует. Согласно полной повестке дня, с первым основным докладом выступят исследователи Google Brain Фернанда Виегас и Мартин Ваттенберг].

[Текущий список из более чем 70 выступающих см. Http://ai.withthebest.com/]

IP: Что было бы самым захватывающим в программе, которую вы составляете, для платящих участников?
Ян Гудфеллоу: Посетителям обязательно стоит записываться на сеансы 1: 1 с докладчиками, это одна из действительно замечательных особенностей онлайн-конференции, в отличие от видео на YouTube, программная платформа позволяет взаимодействовать.
ИП: Все выступающие это предложат?
Ян Гудфеллоу: Каждый выступающий волен выбирать, сколько слотов ему доступно. Я не уверен, решат ли Джефф и Йошуа сделать это, но я призываю их сделать это. Сеансы 1: 1 могут быть приятными и полезными как для выступающих, так и для посетителей. В прошлом году я встретил некоторых действительно интересных участников, например, астронома, который использовал генеративные модели для изучения распределения темной материи.
IP: Ваш доклад на прошлогоднем AI With the Best, который находится в видео ниже, был посвящен GAN. Не могли бы вы дать очень краткое объяснение этой концепции?
Ян Гудфеллоу: GAN — это модель машинного обучения, которая может генерировать новые данные, похожие на данные обучения. Например, после обучения на наборе данных, содержащем изображения собак, GAN может создать новое изображение воображаемой собаки, которого никогда раньше не видели.

ИП: В этом году вы будете основным докладчиком. О чем ты говоришь?
Ян Гудфеллоу: Мой основной доклад, Безопасность и конфиденциальность машинного обучения, будет посвящен быстрорастущей области безопасности машинного обучения. Я дам краткий обзор этой развивающейся области, сосредоточив внимание на недавней работе моих коллег в области дифференциальной конфиденциальности.
IP: Безопасность — ваша текущая область исследований или вы собираетесь продвигаться дальше с обучением противоборству?
Ян Гудфеллоу: Я работаю над обеими темами, которые тесно связаны с безопасностью машинного обучения, мы изучаем, как обмануть модели машинного обучения прямо сейчас, несколько компаний заинтересованы в использовании глубокого обучения для обнаружения вредоносных программ. Проблема в том, что модели машинного обучения легко обмануть. так что следующее поколение вредоносных программ будет просто обмануть эти детекторы вредоносных программ машинного обучения, например, есть новый алгоритм под названием MalGAN (https://arxiv.org/abs/1702.05983). Он использует GAN для создания вредоносных программ, которые обманывают детектор вредоносных программ, заставляя его думать, что это законное программное обеспечение.
ИП: Значит надо мошенников перехитрить
Ян Гудфеллоу: Да, между злоумышленниками и защитниками идет гонка вооружений, новые возможности машинного обучения помогают обеим сторонам, машинное обучение может автоматизировать обнаружение мошенничества, но оно также может автоматизировать мошенничество.
IP: Есть ли какие-нибудь простые решения, или это займет много времени?
Ян Гудфеллоу: Это займет некоторое время, предстоит много работы как с точки зрения теории, так и с точки зрения применения. Что касается теории, у нас еще нет теории, объясняющей, чем закончится гонка вооружений, например, в криптографии, если вы правильно реализуете шифрование и сохраните свой пароль в безопасности, злоумышленник не сможет прочитать ваши зашифрованные сообщения. В шифровании интересно то, что, если все сделано правильно, защитник выигрывает. Мы до сих пор не знаем, можно ли гарантировать что-то подобное для машинного обучения. Прямо сейчас, если вы возьмете современный алгоритм машинного обучения и научите его обнаруживать вредоносные программы, его все равно будет очень легко обмануть. Мы могли бы надеяться, что когда-нибудь появится возможность создать детектор вредоносных программ, который никто не сможет обмануть. На данный момент у нас фактически нет никакой математической теории, которая бы говорила нам, возможно это или нет. Одна из самых серьезных исследовательских проблем в области безопасности машинного обучения сегодня — это просто выяснить, на что мы можем надеяться.
ИП: Кажется, здесь есть что-то вроде парадокса. С одной стороны, мы стремимся к ИИ, который может заставить нас думать, что он человек, и в то же время мы открываем новые опасности. Похоже, что машинное обучение представляет собой совершенно новый класс уязвимостей в виде состязательных примеров. Как вы думаете, возможно ли найти способы защитить сетевые сети от всех подобных атак, или проблема является неизбежной частью модели?
Ян Гудфеллоу: Это важный открытый исследовательский вопрос. Мы хотели бы иметь возможность написать теорему, которая говорит нам, как много мы можем надеяться защитить от состязательных примеров. Пока у нас нет большого количества теоретических указаний. На практике защищаться было намного сложнее, чем атаковать.

IP: Облегчает ли атаку тот факт, что ИИ часто предоставляется в виде облачной службы?

Ян Гудфеллоу: Нет, пока поставщик услуг принимает соответствующие меры безопасности, лучше иметь все в облаке, чтобы была только одна система, которую нужно защищать и поддерживать в актуальном состоянии.

IP: Есть ли аналогичные проблемы при других подходах к ИИ, таких как SVM, деревья решений и т. Д.?

Йен Гудфеллоу: Да. Фактически, во многих случаях один и тот же пример ввода обманывает несколько разных алгоритмов машинного обучения.

ИП: Если люди, которые уже делают карьеру, а не только начинают учиться, хотят заняться машинным обучением, какой путь вы порекомендуете?

Йен Гудфеллоу: Прочтите учебник по глубокому обучению [который Иэн написал в соавторстве с Йошуа Бенжио и Аароном Курвиллом] и одновременно найдите проект машинного обучения, который они могут использовать на практике. В наши дни машинное обучение повсюду, поэтому должна быть возможность найти проект машинного обучения практически в любой карьере, машинное обучение в наши дни повсюду, поэтому должно быть возможно найти проект машинного обучения практически в любой карьере. И, конечно же, посещать AI With the Best.
Билеты на это мероприятие, которые позволяют вам присутствовать на мероприятии и иметь доступ к повторам в течение 15 дней, забронированные до 16 апреля, стоят 60 долларов (20 долларов для студентов). Но если вы бронируете по этой ссылке, используя код IPROGRAMMER, вы можете воспользоваться скидкой — 50% до 14 марта и 25% после этой даты.


Добавить комментарий