Как сделать ИИ заслуживающим доверия


Одно из самых больших препятствий на пути внедрения новых технологий — это доверие к ИИ.

Теперь новый инструмент, разработанный исследователями USC Viterbi Engineering, генерирует автоматические индикаторы, если данные и прогнозы, созданные с помощью алгоритмов искусственного интеллекта, заслуживают доверия. Их исследовательская работа «Все-таки есть надежда: количественная оценка мнений и надежности нейронных сетей», написанная Минси Ченг, Шахин Назарян и Пол Богдан из USC Cyber Physical Systems Group, была опубликована в Frontiers in Artificial Intelligence .

Нейронные сети — это тип искусственного интеллекта, который моделируется по образцу мозга и генерирует прогнозы. Но можно ли доверять прогнозам, которые генерируют эти нейронные сети? Одним из ключевых препятствий для внедрения беспилотных автомобилей является то, что транспортные средства должны действовать как независимые лица, принимающие решения в отношении автопилота, и быстро расшифровывать и распознавать объекты на дороге — будь то лежачий полицейский или неодушевленный объект. , домашнее животное или ребенок — и принимать решения о том, как действовать, если к нему поворачивает другой автомобиль. Должен ли автомобиль удариться о встречный автомобиль или свернуть и наехать на то, что автомобиль воспринимает как неодушевленный предмет или ребенка? Можем ли мы доверять компьютерному программному обеспечению в транспортных средствах, чтобы принимать обоснованные решения за доли секунды, особенно когда противоречивая информация поступает от различных способов восприятия, таких как компьютерное зрение с камер или данные с лидара? Знание, каким системам доверять и какая система зондирования является наиболее точной, может помочь определить, какие решения должен принять автопилот.

Ведущий автор Мингси Ченг работал над этим проектом благодаря следующей мысли: «Даже люди могут быть нерешительными в определенных сценариях принятия решений. В случаях, связанных с противоречивой информацией, почему машины не могут сказать нам, когда они не знают ? «

Созданный авторами инструмент под названием DeepTrust может количественно оценить степень неопределенности, — говорит Пол Богдан, доцент кафедры электротехники и компьютерной инженерии Мин Се и автор соответствующих статей, и, следовательно, в случае необходимости вмешательства человека.

На разработку этого инструмента исследовательская группа USC потратила почти два года, используя так называемую субъективную логику для оценки архитектуры нейронных сетей. В одном из своих тестовых примеров — опросах, проведенных на президентских выборах 2016 года, DeepTrust обнаружил, что прогноз, указывающий на победу Клинтона, имел больший предел ошибки.

Другое значение этого исследования заключается в том, что оно дает представление о том, как проверить надежность алгоритмов ИИ, которые обычно обучаются на тысячах и миллионах точек данных. Было бы невероятно много времени, чтобы проверить, точно ли помечена каждая из этих точек данных, которые информируют прогнозы AI. По мнению исследователей, более важным является то, что архитектура этих нейросетевых систем имеет большую точность. Богдан отмечает, что, если компьютерные специалисты хотят одновременно добиться максимальной точности и доверия, эта работа может также послужить ориентиром для определения того, сколько «шума» может быть в тестируемых образцах.

Исследователи считают эту модель первой в своем роде. Богдан говорит: «Насколько нам известно, не существует модели количественной оценки доверия или инструмента для глубокого обучения, искусственного интеллекта и машинного обучения. Это первый подход, который открывает новые направления исследований». Он добавляет, что этот инструмент может сделать «искусственный интеллект осведомленным и адаптивным».


Добавить комментарий