Владелец Facebook, исполнительный директор Meta Ник Клегг утверждает, что искусственный интеллект «довольно глуп»


Нынешние модели искусственного интеллекта (ИИ) «довольно глупы», заявил президент Facebook по международным делам Ник Клегг, преуменьшая риски, связанные с технологией.

Бывший вице-премьер Великобритании сказал, что «ажиотаж несколько опережает технологии».

Nick Clegg

По его словам, нынешним моделям «далеко не хватает» предупреждений, когда ИИ развивает автономию и думает самостоятельно.

«Во многих отношениях они довольно глупы», — сказал он в программе BBC Today Programme.

Он говорил после того, как Meta заявила, что его большая языковая модель, известная как Llama 2, будет бесплатной для всех, известной как открытый исходный код.

По его словам, модели больших языков — платформа, на которой работают чат-боты, такие как ChatGPT, — в основном соединяют точки в огромных наборах данных текста и угадывают следующее слово в последовательности. Он добавил, что предупреждения об экзистенциальной угрозе, выдаваемые некоторыми экспертами по ИИ, относятся к системам, которых еще не существует.

Решение Meta сделать Llama 2 широко доступной для коммерческих предприятий и исследователей разделило техническое сообщество. В некотором смысле его рука уже была принуждена — первое поколение Llama просочилось в сеть в течение недели после его запуска.

Открытый исходный код — это хорошо проторенный путь в этом секторе — открытие вашего продукта для использования другими дает вам огромное количество бесплатных данных тестирования пользователей, выявление ошибок, проблем и улучшений на этом пути.

Но риск здесь в том, что это очень мощный инструмент, что бы ни говорил сэр Ник.

Мы знаем, что предыдущими версиями чат-ботов манипулировали, чтобы разжигать ненависть, генерировать ложную информацию и давать вредные инструкции. Достаточно ли прочны ограждения, чтобы Лама 2 не могла быть использована не по назначению в дикой природе, и что сделает Мета, если это так?

Еще одна интересная вещь, на которую следует обратить внимание, — это решение Meta сотрудничать с Microsoft в этом вопросе — Llama 2 будет доступна и использоваться через платформу Microsoft, такую ​​как Azure, — поскольку Microsoft также инвестировала миллиарды долларов в создателя ChatGPT OpenAI.

Это гигант с его прицелом на ИИ и глубокими карманами, чтобы купить себе дорогу у ключевых игроков. Риск заключается в том, что пул ИИ вскоре наполнится несколькими очень крупными рыбами — и здорово ли это для конкуренции в этой все еще довольно молодой отрасли?

Открытый источник

Llama 2 знаменует собой партнерство между Microsoft и Meta.

В отличие от Llama 2, GPT-4 и его конкурент Palm — LLM от Google, на котором работает чат-бот Bard — не могут свободно использоваться в коммерческих или исследовательских целях.

Это произошло через неделю после того, как американский комик Сара Сильверман объявила, что подает в суд как на OpenAI, так и на Meta, утверждая, что ее авторские права были нарушены при обучении систем искусственного интеллекта фирм.

Дама Венди Холл, профессор компьютерных наук в Саутгемптонском университете, сказала Би-би-си, что предоставление открытого исходного кода ИИ вызывает обеспокоенность по поводу законодательства.

«Меня беспокоит то, как мы регулируем открытый исходный код», — сказала она.

«Можно ли доверять отрасли саморегулирование, или они будут работать с правительствами для регулирования? Это немного похоже на предоставление людям шаблона для создания ядерной бомбы».

Сэр Ник сказал, что ее комментарии были «гиперболой», и пояснил, что система Meta с открытым исходным кодом не может генерировать изображения, не говоря уже о «создании биологического оружия».

Но он «полностью согласен» с тем, что ИИ необходимо регулировать.

«Модели уже постоянно находятся в открытом доступе», — сказал он.

«Поэтому на самом деле вопрос не в том, будет ли иметь место открытый исходный код этих больших языковых моделей, вопрос в том, как вы можете сделать это максимально ответственно и безопасно.

«Я чувствую, что могу утверждать, не опасаясь возражений, что LL, исходный код которого мы используем с открытым исходным кодом, безопаснее, чем любой другой LL AI с открытым исходным кодом».


Добавить комментарий