Что касается ошибок вычислимости и проблемы остановки в целом, вы, вероятно, не могли бы найти лучшего примера. В недавней статье изложены аргументы по важной теме — роботы, обладающие способностью убивать. Вывод таков: информатика доказывает, что их следует запретить.
В недавней статье «Логические ограничения машинной этики» приводится ряд интересных и разумных аргументов о летальном автономном оружии (ЗАКОН), но ее ключевой аргумент ошибочен — посмотрите, сможете ли вы определить проблему.
Роботы, решившие стереть человечество с лица земли, — это повторяющаяся научно-фантастическая тема, и в последнее время появление дронов и других военных роботов сделало это предложение вполне вероятным. Такие знаменитости, как Илон Маск, даже привлекли к этому внимание общественности, заявив, что это большая угроза, чем атомная бомба.
Отсюда идея, что группа ученых Маттиаса Энглерта, Сандры Зиберт и Мартина Циглера из Технического университета Дармштадта могла доказать, что ЗАКОНЫ морально неполны.
Цитата из аннотации:
«Мы применяем математическую логику и теоретическую информатику для изучения фундаментальных ограничений морального поведения интеллектуальных машин в серии экспериментальных экспериментов: уточнение и уточнение вариантов проблемы тележки приводит нас к построению (предположительно искусственной, но) полностью детерминированной ситуации, в которой робот представлены два варианта: один с моральной точки зрения явно предпочтительнее другого, однако, исходя из неразрешимости проблемы остановки, он, очевидно, не может решить алгоритмически, какой из них. Наши соображения имеют неожиданные последствия для вопроса об ответственности и ответственности за действия автономной системы и привести к конкретным техническим рекомендациям «.
В статье в качестве примеров представлена последовательность моральных дилемм, но на самом деле это только последний пример, который должен нас беспокоить.
Сбежавшая железнодорожная тележка мчится к группе ничего не подозревающих детей, но, к счастью, есть переключатель, который переведет ее на заброшенный путь. Переключатель управляется компьютером, а программное обеспечение было разработано возможно раскаявшимся злым злодеем. Вам предоставляется копия кода, и вы должны решить освободить или задержать инженера в зависимости от вредоносной природы кода. Ах да, ты робот.
Предполагается даже, что выполнение кода переключателя в линейном времени усложняет задачу для робота — фактически, упрощает ее.
Вывод состоит в том, что задача определить, действительно ли программное обеспечение коммутатора работает правильно, — это то же самое, что спросить, не останавливается ли программа. Это совершенно правильно — и все мы знаем, что проблема остановки неразрешима, поэтому вопрос о том, доверять ли программному обеспечению, неразрешим, а вопрос о том, задерживать или освобождать подлость, неразрешим.
Только это не так.
Это неразрешимо только в том случае, если рассматриваемые программы неограниченны.
Машина Тьюринга, для которой доказана неразрешимость проблемы остановки, является теоретической конструкцией с неограниченной памятью. Все настоящие программы имеют ограниченную память и не зависят от результата.
В теоретическом мире, где робот и программа переключения являются неограниченными машинами Тьюринга, проблема остановки не может быть решена. Неограниченная машина Тьюринга обычного типа имеет ленту, то есть память, которую можно расширять по мере необходимости. Длина ленты на самом деле не бесконечна, но она не ограничена — небольшая разница.
В реальном мире память конечна, и все машины Тьюринга ограничены. То есть есть максимальная длина ленты. Ключевым моментом является то, что любая машина Тьюринга с лентой длины N, набором символов размера S и состояниями X (в контроллере) может быть смоделирована конечным автоматом с состояниями A = SN * X.
Почему это важно?
Потому что для любого (детерминированного) конечного автомата проблема остановки вычислима.
Причина в том, что если вы подождете достаточно времени, чтобы автомат завершил шаги A + 1, он либо уже остановился, либо перешел в одно из состояний A более одного раза, и, следовательно, он будет зацикливаться навсегда и никогда не останавливаться. Существует даже простой алгоритм обнаружения повторения состояния, который не включает запись всех посещенных состояний.
Это важно для данного обсуждения, потому что ни одно физическое вычислительное устройство не имеет неограниченной памяти и, следовательно, проблема остановки всегда теоретически вычислима.
В частности, коммутатор определенно имеет только небольшую ограниченную память, а робот, хотя и имеет больше памяти, по-прежнему ограничен. Это не машины Тьюринга, а конечные автоматы, и для них нет проблемы остановки.
Вам нужно немного бесконечности, чтобы возникла проблема с остановкой.
Даже если вы расширите условия так, чтобы вычислительная машина могла иметь память, ограниченную некоторой функцией размера ввода, проблема остановки все равно остается разрешимой.
Таким образом, никакие информатики не ставят препятствия на пути робота, выполняющего наилучшие этические действия в этом случае.
Обратите внимание, что люди также являются конечными автоматами, и поэтому с точки зрения информатики нет реальной разницы между роботом и человеком.
Вы можете восхищаться авторами, пытающимися найти твердую основанную на информатике причину, по которой роботам не следует давать моральные решения о жизни и смерти, но неправильное использование проблемы остановки не оправдывает этот аргумент. Все, что это доказывает, — это то, что вы должны быть очень осторожны, рассуждая с помощью тонких идей, таких как неразрешимость Тьюринга.
Для записи:
Все реальные физические вычислительные устройства имеют ограниченную память и, следовательно, являются конечными автоматами, не обработанными по Тьюрингу, и, следовательно, они не подвержены неразрешимости проблемы остановки.
Машина Тьюринга имеет неограниченную ленту, и это имеет решающее значение для доказательства неразрешимости проблемы остановки.
Сказав это, важно понимать, что для реальной машины количество состояний может быть настолько большим, что вычисления непрактичны. Но это не то же самое, что абсолютный запрет, наложенный неразрешимостью проблемы остановки для машин Тьюринга.
Могут быть очень веские причины не использовать роботов в качестве оружия, но они не имеют никакого отношения к машинам Тьюринга или теории вычислений.
Робокоп — MGM и Sony