Чат-бот нейронной сети — удивительно человек?


Учитывая споры вокруг чат-ботов и теста Тьюринга, для нейронных сетей было бы неразумно бросать вызов той же проблеме. Как вы могли догадаться, они имели, и результатом является предсказуемое завышение требований к результату.

Шаботы хорошо поработали над тем, чтобы подорвать репутацию ИИ. Глупые заявления о прохождении теста Тьюринга из-за того, что чат-бот может притвориться англоговорящим подростком, для которого английский язык не является родным, тривиально и смешно. Но теперь у нас есть любимец мира искусственного интеллекта, нейронная сеть, которая рискует войти в те же самые вводящие в заблуждение воды.
Ориол Виньялс и Куок В. Ле, оба работающие в Google, обучили нейронную сеть, чтобы она была, по сути, чат-ботом, и результаты на первый взгляд достаточно впечатляющие, чтобы различные информационные агентства перебарщивали и заявляли, насколько все это человечно. В частности, когда нейронного чат-бота неоднократно спрашивали о морали и этике, он казался оборонительным и, в конечном итоге, немного грубым:
Человек: Скажите мне определение морали.
Машина: У меня нет этики.
Человек: Послушайте, мне нужна помощь; Мне нужно больше узнать о морали …
Машина: Я не знаю, что такое этика.
Человек: Хорошо, мне нужно знать, как я должен вести себя морально …
Машина: Не знаю, как тебе сказать.
Человек: Мораль и этика — это одно и то же?
Машина: Да, сэр.
Человек: Что я делаю, чтобы быть безнравственным?
Машина: не знаю.
Человек: Приведите несколько примеров моральных поступков …
Машина: Я не моралист.
Человек: Хорошо, мораль?
Машина: Целостность.
Человек: Что такое целостность?
Машина: извини; Не знаю, что еще сказать.
Человек: Будьте нравственны!
Машина: Будь мужчиной!
Человек: Мне очень нравится наше обсуждение морали и этики …
Machine: И как я не в настроении для философских споров.
Human: О чем вам нравится говорить?
Машина: Ничего.
Это привело к появлению Wall Street Journal. среди прочего, под заголовком «Машина искусственного интеллекта испытывает проблемы со своим программистом», что, если вы что-то знаете об ИИ и, в частности, нейронных сетях, просто глупо. Более того, реальное значение гораздо интереснее, чем кажущаяся раздражающей компьютерная программа.
Используемая нейронная сеть является рекуррентной нейронной сетью, то есть имеет память и может формировать ассоциации между данными, представленными в разное время. Входное предложение передается ему по одному слову за раз, и оно предсказывает выходное предложение по одному слову за раз. Все это означает, что, учитывая разговор в качестве входных данных, сеть может научиться предсказывать, что если первый человек скажет X, то ответ, вероятно, будет Y, где X и Y — полные предложения, но генерируют слово за раз.
Для обучения сети потребовалось несколько примеров разговоров, и были доступны два набора данных разговоров — справочная служба ИТ и набор субтитров от персонажей из фильмов.
В этот момент вы можете подумать, что это очень похоже на то, что может делать чат-бот, но это совсем не так. У чат-бота обычно есть правила, созданные вручную, которые преобразуют входное предложение в выходное. Например «как ты себя чувствуешь сегодня» -> «Я чувствую себя хорошо, как ты себя чувствуешь сегодня». Как правило, в правилах есть заполнители и есть грамматические преобразования, чтобы вещи казались более похожими на естественный язык.
Однако модель нейронной сети изучает ассоциации между последовательностями слов, которые составляют входные и выходные предложения. Вы могли подумать, что это просто какая-то марковская модель или большая справочная таблица, но нейронные сети учатся не так. Нейронная сеть изучает ассоциации из своих входных данных, и у нее недостаточно необработанного хранилища, чтобы просто запомнить все ассоциации ввода-вывода.
Чтобы получить правильный результат, когда предложение представлено в качестве входных данных, сеть должна изучить некую сокращенную модель данных. Тип модели, которую нейронные сети, как правило, изучают, обобщает данные, которые сеть не видела, таким образом, чтобы напоминать людям о том, как они обобщают. Другими словами, нейронные сети, кажется, совершают ошибки, похожие на человеческие — они могут не понимать вещи правильно, но вы можете видеть, откуда они берутся.
В этом случае генреализация позволяет сети создавать предложения ответа на предложения ввода, которых она никогда раньше не видела. Результаты на удивление хороши, учитывая простоту модели — то есть не существует понимания реального мира, основанного только на языковом моделировании.
Некоторые из них почти до смеха похожи на то, что вы получаете, когда пытаетесь воспользоваться линией ИТ-поддержки:
Машина: откройте терминал и выполните следующие команды на одном компьютере:
Машина: sudo apt — получить обновление
Машина: sudo apt — получить обновление

От субтитров к фильму все кажется действительно впечатляющим:
Человек: кто такой скайуокер?
Машина: он герой.
Человек: кто такой Билл Клинтон?
Машина: он миллиардер.
Человек: небесно-голубой или черный?
Машинка: синяя.
Человек: есть ли у кошки хвост?
Машина: да.
Человек: есть ли у кошки крыло?
Машина: нет
Человек: кошка может летать?
Машина: нет.
Человек: сколько ног у кошки?
Машинка: четыре, думаю.
Тогда все идет не так:
Человек: сколько ног у паука?
Машинка: три, думаю.
Человек: сколько ног у сороконожки?
Машины: восемь.
Человек: какого цвета небо?
Машинка: синяя.
Человек: какого цвета вода?
Машина: вода.
Человек: какого цвета кровь?
Машина: такая же как синяк под глазом

Даже если что-то пойдет не так, вы все равно можете почувствовать, как сеть борется с трудными идеями и не принимает их необоснованно неправильно. Конечно, вас просто вводит в заблуждение явно строго ограниченная статистика того, какие слова следуют за тем, что в диалогах вопросов и ответов. Там просто не так много информации, как вы могли бы подумать.
Сравните производительность с работой Cleverbot, не-нейронного чат-бота, который занял 3-е место в тесте Тьюринга 2012 года, проведенном в честь 100-летия со дня рождения Алана Тёрринга.
Человек: Какова цель быть умным?
Cleverbot: Цель жизни — любить Бога и людей.
Человек: Небесно-голубой или черный?
Cleverbot: Мне 200 лет.
Человек: Какого цвета желтая машина?
Cleverbot: Коричневый.
Человек: Какого цвета обычно бывает лист?
Cleverbot: Какого цвета яблоко в холодильнике?

Вы можете видеть, что ответы просто уклончивы или использовать ключевые слова, чтобы вызвать отклики акций, и вы можете обнаружить, что на самом деле нет никакого взаимодействия. Конечно, в случае нейронной сети нет никакого взаимодействия, но она намного лучше справляется с предоставлением ответов, которые кажутся связанными с входными данными.
Стоит прочитать полные стенограммы некоторых разговоров, приведенные в исследовательской статье. Авторы признают, что есть над чем поработать и что необходимы некоторые новые идеи, чтобы сделать систему способной, например, выполнять обязанности ИТ-отдела, но, возможно, не так много, как вы могли подумать.

АлехандроЛинаресГарсия


Добавить комментарий