AI победил пилота-человека в воздушном бою DARPA


Это знаменательное событие произошло во время конкурса, организованного Агентством перспективных исследовательских проектов Министерства обороны США (DARPA) по тестированию автономных боевых систем класса «воздух-воздух». Стоит ли удивляться еще одному свидетельству превосходства ИИ?

На отборочных этапах соревнований Alpha Dogfight Trials, прошедших в августе 2020 года, ИИ соревновались с другими ИИ. Победитель, который выйдет в финал, сразится с человеком-Эйсом, летчиком-истребителем, у которого за плечами много часов полета. ИИ восьми подрядчиков соревновались друг с другом, и Heron Systems забирала трофеи. Затем он выиграл у пилота-человека со счетом 5: 0.
Для меня неудивительно, что машина победила человека в воздушной войне. Компьютеры играют важнейшую роль в современных самолетах. Например, F117 не может летать сам по себе из-за его странной формы, поэтому ему нужна ферма выделенных процессоров, чтобы постоянно работать параллельно, чтобы вносить коррективы, чтобы он оставался в воздухе. Таким образом, воздушное судно может рассматриваться как получатель массы данных, собранных с ряда датчиков, радаров и сигналов связи, которые он затем должен представить пилоту либо на его дисплее HUD, либо на приборах самолета. чтобы позволить ему обработать его, чтобы получить информацию, которая заставит его решить, что делать дальше. И кто лучше собирает и обрабатывает данные — Человек или Компьютер?
Хотя компьютер не может принимать решения, то есть если он используется как простой калькулятор, достижения в области ИИ сделали его способным принимать разумные решения. Итак, если компьютер уже лучше людей в сборе и обработке данных, а сегодня он также способен принимать решения сам по себе, почему бы не избавиться от человеческого фактора и вместе с ним ошибок, которым он так подвержен?
Хотя ИИ Херона не позволяло «обмануть», то есть выходить за рамки возможностей настоящего F-16, например, не использовать необоснованную G-силу, это не ограничивалось обучением пилотов, поэтому они могли их перехитрить. И в этой жестокой битве, в стиле Второй мировой войны, участвовали только носовые пушки, а не ракеты.

Что касается самого алгоритма, то это дитя глубокого обучения с подкреплением, прошедшего через миллиарды смоделированных воздушных боев.
IProgrammer не в первый раз сообщает о таком алгоритмическом превосходстве над человеческим в воздушной войне. Еще в июле 2016 года в статье «Достижение автономного ИИ ближе, чем мы думаем» мы представили ALPHA, сравнительно элементарный агент ИИ, который также был способен превзойти пилотов-людей на авиасимуляторах:
Примечательно то, что ALPHA, несмотря на сложность инженерной мысли, не требует кластерной мощности суперкомпьютера, как в большинстве современных решений на базе искусственного интеллекта, но может успешно работать на Raspberry Pi.
В той же статье отмечалось:
Подопытный пилот, полковник ВВС США в отставке Джин Ли, обладающий обширным опытом ведения боевых действий в воздухе в качестве инструктора и менеджера воздушного боя, описал свой опыт так:
«Самый агрессивный, отзывчивый, динамичный и надежный ИИ, который я когда-либо видел».
Для протокола, используемый алгоритм получил название «Генетическое нечеткое дерево», специальность которого заключалась в разделении сложного решения, такого как «пора ли запустить ракету?». на более мелкие управляемые подрешения, которые в сочетании друг с другом будут давать оптимальные решения для сценариев «если / то», возникающих в результате каждой комбинации входных данных.
Разница между ALPHA и текущим достижением ИИ заключается в том, что тогда в битвах участвовали отряды, а это означало, что несколько ИИ должны были сотрудничать друг с другом. Это также была тактическая миссия, в которой разрешался пуск ракет. Управляемая людьми эскадрилья потерпела поражение в стратегической битве, а теперь она превратилась в битву ближнего боя.

За прошедший период алгоритмы стали более мощными, но до сих пор не достигли состояния готовности к производству. Министерство обороны США в настоящее время не стремится исключить пилотов из управления самолетами, но исследует идею когда люди объединяются с ИИ, включая ИИ, как автопилот, когда это необходимо (когда становится сложно?).
Тем не менее, бой проходил в смоделированной среде, максимально приближенной к реальной, насколько это возможно в современных боевых симуляторах. Мы не знаем наверняка, что произошло бы в реальном мире, и были некоторые предположения, что ИИ играл в систему. Это также была проблема, которую мы подробно описали в статье «Автономное роботизированное вооружение — дебаты»:
Наконец, разговор коснулся текущего состояния искусственного интеллекта роботов, и Алан Уинфилд отметил, что существующие сейчас роботы не так умны, как мы думаем. Помещенные вне контролируемой среды лаборатории, они похожи на рыб, вытащенных из воды, ведут себя хаотично и совершают ошибки.
Этой точке зрения категорически противостоит Стюарт Рассел, отметивший, что компоненты автономии уже существуют. Маневренность наглядно демонстрируется беспилотными автомобилями, поскольку они могут обнаруживать стены, дома и людей, в то время как тактическое мышление и восприятие также демонстрируются компьютерами, побеждающими людей в игре в шахматы.
В конце концов, им не нужно быть на 100% точными, поскольку их цель — разрушить хаос, чего можно достичь с гораздо меньшими процентами точности.
Тем не менее, даже если бы эти ИИ были готовы к производству, решение перейти на ИИ было непросто. И снова в «Автономном вооружении роботов — дебаты» мы рассмотрели последствия такого решения:
… мы не должны демонизировать все, что называется роботом или оружием, а использовать классификации, которые разделяют их по уровню автоматизации.
Самый первый уровень воплощает в себе роботов, управляемых человеком, которые уже сегодня играют значительную роль на полях сражений, таких как очистка мин, обезвреживание бомб или оказание медицинской помощи.
Следующий уровень воплощает полуавтономное оружие, которое, несмотря на то, что снимает часть риска с человека-оператора, не может взять на себя полную ответственность, поскольку последнее слово остается за человеком-оператором. Примерами такого рода оружия являются ракеты воздух-воздух типа «выстрелил и забыл» или самолеты, которые автоматически захватывают свои цели. Нажатие кнопки запуска таких ракет по-прежнему является обязанностью пилота … Очевидно, опасность таится на третьем уровне, уровне полностью автономных роботов, где не требуется вмешательства человека. Эти роботы могут действовать самостоятельно и выполнять свою миссию без эмоционального бремени или этических ограничений, чтобы их остановить.
Теперь вопрос переключается на то, можно ли привнести этику в машину, можно ли гарантировать, что она подчиняется правилам войны, и можно ли защититься от ее нападения на своего создателя в момент самосознания.


Добавить комментарий