Новые алгоритмы машинного обучения предлагают гарантии безопасности и справедливости


Семьдесят лет назад писатель-фантаст Айзек Азимов представил мир, в котором роботы будут служить людям бесчисленным множеством способов, и снабдил их встроенными средствами защиты, известными теперь как Три закона робототехники Азимова, чтобы предотвратить их, среди прочего цели, от причинения вреда человеку.

По словам исследователя машинного обучения и ведущего автора Филипа Томаса из Массачусетского университета в Амхерсте, обеспечение безопасного и справедливого поведения машин по-прежнему остается проблемой. «Когда кто-то применяет алгоритм машинного обучения, его поведение трудно контролировать», — отмечает он. Это рискует получить нежелательные результаты из-за алгоритмов, которые направляют все, от беспилотных автомобилей до инсулиновых помп и заканчивая уголовным наказанием, говорят он и соавторы.

Автор статьи Science , Томас и его коллеги Юрий Брун, Эндрю Барто и аспирант Стивен Жигере из Университета Массачусетса в Амхерсте, Бруно Кастро да Силва из Федерального университета Рио-Гранде-дель-Соль, Бразилия, и Эмма Бранскилл в Стэнфордском университете на этой неделе представил новую структуру для разработки алгоритмов машинного обучения, которая упрощает пользователям алгоритма определение ограничений безопасности и справедливости.

«Мы называем алгоритмы, созданные с помощью нашей новой структуры,« Селдониан »в честь персонажа Азимова Хари Селдона», — объясняет Томас. «Если я использую алгоритм Селдона для лечения диабета, я могу указать, что нежелательное поведение означает опасно низкий уровень сахара в крови или гипогликемию. Я могу сказать машине:« Пока вы пытаетесь улучшить контроллер в инсулиновой помпе, не надо » t вносить изменения, которые увеличивают частоту гипогликемии ». Большинство алгоритмов не позволяют наложить ограничения на поведение такого типа; они не были включены в ранние разработки «.

«Но упростить обеспечение справедливости и избежание вреда становится все более важным, поскольку алгоритмы машинного обучения все больше и больше влияют на нашу жизнь», — говорит он.

Тем не менее, «в недавней статье перечислено 21 определение справедливости в машинном обучении. Важно, чтобы мы позволяли пользователю выбирать определение, подходящее для его предполагаемого применения», — добавляет он. «Интерфейс, который поставляется с алгоритмом Селдона, позволяет пользователю делать именно это: определять, что означает« нежелательное поведение »для его приложения».

В серии «Основание Азимова» Селдон находится в той же вселенной, что и его серия «Роботы». Томас объясняет: «Все развалилось, галактическая империя рушится, отчасти потому, что Три закона робототехники требуют определенности. При таком уровне безопасности роботы парализованы нерешительностью, потому что они не могут действовать с уверенностью и гарантировать, что ни один человек не будет пострадали от их действий «.

Селдон предлагает исправить это, обратившись к вероятностным рассуждениям о безопасности. «Это хорошо сочетается с тем, что мы делаем, — говорит Томас. Новый подход, который он и его коллеги предлагает, допускает вероятностные ограничения и требует, чтобы алгоритм указывал способы, которыми пользователь может указать, что ограничивать. инструмент для исследователя машинного обучения. Он направляет их к созданию алгоритмов, которые пользователям будет легче применять к реальным проблемам ».

Чтобы протестировать новую структуру, они применили ее для прогнозирования средних баллов по набору данных о 43 000 учащихся из Бразилии, создав алгоритм Селдона с ограничениями. Он успешно избежал нескольких типов нежелательной гендерной предвзятости. В другом тесте они показывают, как алгоритм может улучшить контроллер в инсулиновой помпе, гарантируя, что это не приведет к увеличению частоты гипогликемии.

Томас говорит: «Мы считаем, что в этой области есть большие возможности для улучшения. Даже с нашими алгоритмами, состоящими из простых компонентов, мы получили впечатляющие результаты. Мы надеемся, что исследователи машинного обучения продолжат разработку новых и более сложных алгоритмов, используя наши framework, который можно ответственно использовать для приложений, в которых машинное обучение раньше считалось слишком рискованным. Это призыв к другим исследователям провести исследования в этой области «.


Добавить комментарий