Форма классификационного пространства в основном плоская


Все правила классификации можно представить как разделение пространств большой размерности на области, принадлежащие разным группам. Нейронные сети ничем не отличаются, но до сих пор мы не имели большого представления о форме разделяющих границ. Геометрия удивительна.

Группа компьютерных ученых Альхусейн Фавзи, Сейед-Мохсен Мусави-Дезфоли, Паскаль Фроссар и Стефано Соатто из Калифорнийского университета в Лос-Анджелесе и EPFL использовали риманову геометрию для изучения границ принятия решений, которые создаются при обучении глубокой нейронной сети. Многие классификаторы используют относительно простые поверхности, чтобы попытаться разделить разные классы. Например, дискриминантный анализ и простая SVM делят пространство с помощью плоских гиперплоскостей.
Чтобы создать изогнутые поверхности разделения, вы должны включить дополнительные функции, которые вводят эту кривизну, например, с помощью полиномов или функций ядра. Глубокие нейронные сети отличаются тем, что в принципе они могут создавать сложные изогнутые границы, используя только необработанные данные. Часто предполагается, что это одна из причин их такого могущества, но до сих пор никто не изучал природу поверхностей принятия решений. Это особенно актуальный вопрос из-за существования состязательных примеров, которые представляют собой небольшие модификации правильно классифицированных примеров, которые затем классифицируются неправильно.
Первый вопрос: склонны ли нейронные сети создавать связанные или отключенные области в пространстве классификации?
На этот вопрос легко ответить — и он в двух и, возможно, трех измерениях, но когда пространство имеет сотни измерений, вы не можете просто посмотреть на него и увидеть, связана ли область. Для проверки связной области выбираются две точки с одинаковой классификацией, и делается попытка найти путь между ними, который остается в пределах группы. Уловка состоит в том, чтобы выбрать достаточно широкий диапазон точек, чтобы проверить, что регион подключен. В этом случае были опробованы три типа пар — случайная пара в группе, случайная в группе и точка в группе, полученная неблагоприятным воздействием на точку не в группе и случайная в группе, и случайная точка, возмущенная, чтобы быть в группе. группа.
Поразительный результат:
«Во всех трех сценариях всегда существует непрерывный путь между точками, взятыми из одной и той же области классификации».
Это, конечно, не доказывает, что регион подключен — могут быть две непроверенные точки, которые не находятся в одном и том же подключенном компоненте, — но вероятность после тестирования 1000 пар довольно мала.
«Этот результат предполагает, что области классификации, созданные глубокими нейронными сетями, связаны в R d: глубокие сети создают отдельные большие области, содержащие все точки одной и той же метки. Более того, путь, который был найден с использованием предложенного подхода к поиску пути, приблизительно соответствует на прямой путь «.
Второй вывод о том, что большинство соединительных путей представляют собой примерно прямые линии, вероятно, является отражением того факта, что с увеличением размера объем области становится намного больше, чем поверхность. Просто здесь много внутреннего и мало границ, которые могут помешать.

Нормальная кривизна вдоль касательного вектора v — это кривизна пересечения плоскости и поверхности принятия решения.
Затем вопрос кривизны был изучен путем вычисления нормальной кривизны и набора направлений, которые ее максимизируют. Наибольшая нормальная кривизна — это основная кривизна. Была выбрана тысяча случайных точек и вычислены возмущения для перемещения точки к границе решения. По его мнению, была вычислена основная кривизна.
Результат был еще одним сюрпризом:
«Граница принятия решения в непосредственной близости от естественных изображений плоская в большинстве направлений, и лишь очень немногие направления сильно изогнуты».
Флэт — это то, чего ожидало большинство людей. Более того, когда граница изогнута, наблюдается тенденция к отрицательной кривизне, и это, кажется, общее свойство, разделяемое разными сетями и наборами данных. Эти изогнутые направления также, кажется, разделяют многие точки данных.
Эти наблюдения могут быть использованы для обнаружения состязательных изображений, которые не соответствуют естественной тенденции изображения к отрицательной кривизне. Идея состоит в том, чтобы просто проверить, находится ли изображение в области положительно изогнутой границы — если да, то это, вероятно, состязательное изображение.
Вывод — хорошее резюме:
В этой статье мы проанализировали геометрию, индуцированную классификаторами глубоких нейронных сетей во входном пространстве. В частности, мы предоставили эмпирические данные, показывающие, что регионы классификации связаны.
Затем, чтобы проанализировать сложность функций, изученных глубокими сетями, мы предоставили всесторонний эмпирический анализ кривизны границ принятия решений.
В частности, мы показали, что вблизи естественных изображений границы принятия решений, полученные глубокими сетями, являются плоскими по большинству (но не по всем) направлениям, и что некоторые изогнутые направления являются общими для точек данных.
Наконец, мы воспользовались фундаментальным наблюдением асимметрии кривизны глубоких сетей и предложили алгоритм для обнаружения злонамеренно возмущенных выборок из исходных выборок.
Было показано, что этот геометрический подход очень эффективен, когда возмущения достаточно малы и что восстановление метки в дальнейшем возможно с использованием этого алгоритма.
Кажется, что геометрия поверхностей принятия решений более тонкая, чем мы думали. И «в основном плоские» — это неожиданный вывод, который означает, что способность использовать изогнутые поверхности принятия решений не является ключевым свойством в обеспечении такой эффективности глубокой нейронной сети. Разница между естественными и состязательными изображениями странная и требует более тщательного анализа и исследования. Также ясно, что думать о многомерных пространствах сложно.


Добавить комментарий