Риши Сунак говорит, что у ИИ есть угрозы и риски, но обрисовывает его потенциал


Искусственный интеллект может помочь упростить создание химического и биологического оружия, предупредил премьер-министр Риши Сунак.

В худшем случае общество может потерять весь контроль над ИИ, что предотвратит его выключение, сказал Сунак.

Хотя потенциальный вред оспаривается, мы не должны «прятать голову в песок» из-за рисков, связанных с ИИ, заявил он.

Выступая с целью представить Великобританию как мирового лидера в области искусственного интеллекта, премьер-министр заявил, что эта технология уже создает рабочие места.

Он добавил, что развитие технологии станет катализатором экономического роста и производительности, хотя признал, что это окажет влияние на рынок труда.

В речи премьер-министра в четверг утром были изложены возможности и потенциальные риски, связанные с ИИ, включая кибератаки, мошенничество и сексуальное насилие над детьми, после публикации правительственного отчета.

Сунак отметил, что среди рисков, изложенных в отчете, было то, что ИИ может быть использован террористическими группировками «для распространения страха и беспорядков в еще больших масштабах».

Снижение риска вымирания человечества из-за ИИ должно стать «глобальным приоритетом», сказал он.

Но он добавил: «Это не риск, из-за которого люди должны сейчас терять сон, и я не хочу быть паникёром».

Он сказал, что в целом «оптимистичен» в отношении потенциала ИИ по изменению жизни людей к лучшему.

Угроза, которая для многих будет гораздо ближе к дому, — это нарушение, которое ИИ уже привносит в рабочие места.

Сунак упомянул, что инструменты искусственного интеллекта эффективно выполняют административные задачи, такие как подготовка контрактов и помощь в принятии решений — традиционно роли, выполняемые сотрудниками.

Он сказал, что, по его мнению, образование является решением проблемы подготовки людей к меняющемуся рынку, добавив, что технологии всегда вносили изменения в то, как люди зарабатывают деньги.

Например, автоматизация уже изменила характер работы на заводах и складах, но не полностью исключила человеческий вклад.

Премьер-министр настаивал на том, что слишком просто говорить, что искусственный интеллект «отнимет у людей рабочие места», вместо этого он призвал общественность рассматривать технологию как «второго пилота» в повседневной деятельности рабочее место.

В отчетах, включая рассекреченные материалы разведывательного сообщества Великобритании, содержится ряд предупреждений об угрозах, которые ИИ может представлять в течение следующих двух лет.

Согласно правительственному отчету «Риски безопасности, связанные с генеративным искусственным интеллектом до 2025 года», ИИ может использоваться для:

  • Расширения террористических возможностей в области пропаганды, радикализации и вербовки.
  • Увеличение количества случаев мошенничества, выдачи себя за другое лицо, программ-вымогателей, кражи валюты, сбора данных, клонирования голоса
  • Увеличение количества изображений сексуального насилия над детьми
  • Планируйте и осуществляйте кибератаки
  • Подрывайте доверие к информации и используйте «дипфейки» для влияния на общественные дебаты
  • Собирайте знания о физических атаках со стороны негосударственных насильственных субъектов, включая химические, биологические и радиологические оружие

Эксперты разделились во мнениях относительно угрозы, исходящей от ИИ, и предыдущие опасения по поводу других новых технологий не полностью оправдались.

Рашик Пармар, исполнительный директор BCS, Королевского института информационных технологий, сказал: «ИИ не вырастет, как Терминатор.

«Если мы предпримем правильные шаги

В своей речи Сунак сказал, что Великобритания не будет «торопиться регулировать» ИИ, потому что «трудно что-то регулировать». вы не до конца понимаете».

Он сказал, что подход Великобритании должен быть пропорциональным, одновременно поощряя инновации.

Сунак хочет позиционировать Великобританию как мирового лидера в области безопасности технологий. , что поставило бы его в центр арены, на которой он не смог бы реально конкурировать с такими крупными игроками, как США и Китай, в плане ресурсов или отечественными технологическими гигантами.

На данный момент большинство влиятельных стран Запада Разработчики ИИ, похоже, сотрудничают, но они также хранят много секретов о том, на каких данных обучаются их инструменты и как они на самом деле работают.

Великобритании придется найти способ убедить этих разработчиков прекратить , как выразился премьер-министр, «отмечают домашнее задание».

Профессор Карисса Велиз, доцент кафедры философии Института этики ИИ Оксфордского университета, сказала, что в отличие от ЕС Великобритания до сих пор «заведомо не склонна регулировать ИИ, поэтому это интересно для Сунака, чтобы сказать, что Великобритания особенно хорошо подходит для того, чтобы возглавить усилия по обеспечению безопасности ИИ».

По ее словам, регулирование часто приводит к «самым впечатляющим и важным инновациям».

Лейбористская партия заявила, что правительство еще не представило конкретных предложений о том, как оно будет регулировать наиболее мощные модели искусственного интеллекта.

«Риши Сунак должен подкрепить свои слова действиями и опубликовать следующие шаги по обеспечению защиты общественности», — заявил министр теневой науки, инноваций и технологий Питер Кайл.

На следующей неделе Великобритания проведет двухдневный саммит по безопасности искусственного интеллекта в Блетчли-парке в Бакингемшире, в котором, как ожидается, примет участие Китай.

Решение пригласить Китай в период напряженных отношений между двумя странами подверглось критике со стороны некоторых.

Но Сунак защищал это решение, утверждая, что «не может быть никакой серьезной стратегии в области ИИ, если, по крайней мере, не попытаться привлечь все ведущие мировые державы в области ИИ».

На саммите соберутся мировые лидеры, технологические компании, ученые и ученые для обсуждения новых технологий.

Профессор Джина Нефф, директор Центра технологий и демократии Миндеру при Кембриджском университете, раскритиковала направленность саммита.

«Проблемы, которые волнуют большинство людей, не обсуждаются: от развития цифровых навыков до того, как мы работаем с мощными инструментами искусственного интеллекта», — сказала она.

«Это несет свои риски для людей, сообществ и планеты».


Добавить комментарий