Безопасность ИИ: Великобритания и США подписывают знаковое соглашение


Великобритания и США подписали знаковое соглашение о совместной работе над тестированием передового искусственного интеллекта (ИИ).

В соглашении, подписанном в понедельник, говорится, что обе страны будут вместе работать над разработкой «надежных» методов оценки безопасности инструментов искусственного интеллекта и системы, лежащей в их основе.

Министр торговли США Джина Раймондо и министр технологий Великобритании Мишель Донелан подписали в понедельник меморандум о взаимопонимании

Это первое двустороннее соглашение такого рода.

Министр технологий Великобритании Мишель Донелан заявила, что это «определяющая технологическая задача нашего поколения».

«Нам всегда было ясно, что обеспечение безопасного развития ИИ — это общая глобальная проблема», — сказала она.

«Только работая вместе, мы сможем устранить риски, связанные с технологией, и использовать ее огромный потенциал, чтобы помочь всем нам жить проще и здоровее».

Госсекретарь по науке, инновациям и технологиям добавил, что соглашение основано на обязательствах, взятых на саммите по безопасности искусственного интеллекта, состоявшемся в Блетчли-Парке в ноябре 2023 года.

На мероприятии, в котором приняли участие руководители ИИ, в том числе Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind и технологический миллиардер Илон Маск, в Великобритании и США были созданы институты безопасности ИИ, целью которых является оценка систем ИИ с открытым и закрытым исходным кодом.

Несмотря на то, что после саммита на фронте безопасности ИИ было тихо, сам сектор ИИ был чрезвычайно загружен.

Конкуренция между крупнейшими чат-ботами с искусственным интеллектом, такими как ChatGPT, Gemini, Claude, остается жесткой.

До сих пор почти исключительно американские компании, стоящие за всей этой деятельностью, все еще сотрудничают с концепцией регулирования, но регулирующим органам еще предстоит ограничить все, чего эти компании пытаются достичь.

Аналогичным образом, регулирующие органы не требуют доступа к информации, которой ИИ не желает делиться, например к данным, используемым для обучения их инструментов, или экологическим издержкам их эксплуатации.

Закон ЕС об искусственном интеллекте находится на пути к принятию закона, и как только он вступит в силу, он потребует от разработчиков определенных систем искусственного интеллекта заранее сообщать о своих рисках и делиться информацией об используемых данных.

Это важно, поскольку OpenAI недавно заявила, что не будет выпускать разработанный ею инструмент клонирования голоса из-за «серьезных рисков», которые представляет эта технология, особенно в год выборов.

В январе фальшивый звонок от робота, сгенерированный искусственным интеллектом, якобы от президента США Джо Байдена, призывал избирателей пропустить первичные выборы в Нью-Гэмпшире.

В настоящее время в США и Великобритании системы искусственного интеллекта в основном регулируют себя сами.

Проблемы ИИ

В настоящее время большинство систем искусственного интеллекта способны выполнять только отдельные интеллектуальные задачи, которые обычно выполняет человек.

Эти задачи, известные как «узкий» ИИ, могут варьироваться от быстрого анализа данных до предоставления желаемого ответа на запрос.

Но есть опасения, что более интеллектуальные «универсальные» инструменты ИИ, способные выполнять ряд задач, обычно выполняемых людьми, могут поставить под угрозу человечество.

«ИИ, как и химическая наука, ядерная наука и биологическая наука, может быть превращен в оружие и использован во благо или во зло», — заявил профессор сэр Найджел Шедболт в программе BBC Today.

Однако профессор Оксфордского университета заявил, что опасения по поводу экзистенциального риска ИИ «иногда немного преувеличены».

«Мы должны по-настоящему поддерживать и ценить усилия, направленные на то, чтобы великие силы ИИ задумались и исследовали опасности», — сказал он.

«Нам необходимо понять, насколько уязвимы эти модели, а также насколько они эффективны».

Джина Раймондо, министр торговли США, заявила, что соглашение даст правительствам лучшее понимание систем искусственного интеллекта, что позволит им давать более качественные рекомендации.

«Это ускорит работу обоих наших институтов по всему спектру рисков, будь то для нашей национальной безопасности или для нашего общества в целом», — сказала она.

«Наше партнерство ясно показывает, что мы не убегаем от этих проблем — мы боремся с ними».


Добавить комментарий