Исследователи искусственного интеллекта призывают к запрету автономного оружия


Искусственный интеллект и робототехника в последнее время достигли громких успехов, и высокопоставленные люди начали беспокоиться о будущем. Сейчас у нас более 1000 подписей под письмом, призывающим к запрету автономного оружия.

Письмо было представлено на этой неделе на Международной совместной конференции по искусственному интеллекту в Буэнос-Айресе, Аргентина, в 2015 году, и его подписали внушительный список.
Широкая пресса придает большое значение объединению сил Илона Маска со Стивеном Хокингом, но читателей-программистов, вероятно, больше впечатлит тот факт, что Янн ЛеКун, Питер Норвиг, Джеффри Хинтон, Йошуа Бенджио и даже Стив Возняк поддерживают это предложение.

Оружие становится все более зависимым от умных технологий. Однако петиционеры обеспокоены различием между полуавтономным оружием, которому все еще нужен человек, чтобы принять окончательное решение «убить», и полностью автономным оружием, которое делает последний шаг самостоятельно, и это последняя группа, которая их беспокоит.
«Технология искусственного интеллекта (ИИ) достигла точки, когда развертывание таких систем — практически, если не юридически — возможно в течение лет, а не десятилетий, и ставки высоки: автономное оружие было описано как третья революция в войне после порох и ядерное оружие «.

Одна из проблем заключается в том, чтобы точно знать, когда система попадает в категорию «автономных». По мере того, как системы наведения становятся более совершенными, в них проникает ИИ, и уже есть ракеты, которые улучшают цель по мере приближения. Аргументы за и против такого оружия более тонкие, чем кажется на первый взгляд, поскольку передача контроля — это континуум.
Еще одно беспокойство заключается в том, что мы вот-вот вступим в новую гонку вооружений:
«Ключевой вопрос для человечества сегодня — начать ли глобальную гонку вооружений ИИ или предотвратить ее начало. Если какая-либо крупная военная держава продвинется вперед с разработкой оружия ИИ, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидно: автономное оружие завтра станет автоматом Калашникова ».

Составить закон, запрещающий ИИ-оружие, будет непросто.
«Подводя итог, мы считаем, что ИИ обладает огромным потенциалом принести пользу человечеству во многих отношениях, и что цель этой области должна состоять в этом. Начать гонку вооружений ИИ военного назначения — плохая идея, и ее следует предотвратить с помощью запрета на использование ИИ. автономное наступательное оружие, неподвластное человеческому контролю ».

У вас могут быть сомнения по поводу предупреждений о неизбежных сценариях «терминатора», которые в последнее время были в заголовках. Мы все еще очень далеки от создания системы искусственного интеллекта, которая хоть сколько-нибудь была бы сознательной или самосознательной. Однако у нас уже есть возможности установить в оружие достаточно хорошие системы компьютерного зрения, чтобы они могли идентифицировать свои цели. Считаете ли вы это угрозой или нет, об этом стоит поговорить, потому что это вот-вот произойдет — или уже произошло.
Если вы хотите подписать письмо, вы можете.


Добавить комментарий