Белый дом: руководителям крупных технологических компаний велели защищать общественность от рисков, связанных с ИИ


В четверг в Белый дом были вызваны технические боссы, которым сказали, что они должны защитить общественность от опасностей искусственного интеллекта (ИИ).

Сундару Пичаи из Google, Сатье Наделле из Microsoft и Сэму Альтманну из OpenAI сказали, что у них есть «моральный» долг защищать общество.

Robot and circuit board on futuristic server room background.

Белый дом дал понять, что может и дальше регулировать сектор.

Недавно запущенные продукты ИИ, такие как ChatGPT и Bard, захватили воображение публики.

Они предлагают обычным пользователям возможность взаимодействовать с так называемым «генеративным ИИ», который может обобщать информацию из нескольких источников за считанные секунды, отлаживать компьютерный код, писать презентации и даже стихи, что звучит правдоподобно, как если бы они могли быть людьми. сгенерировано.

Их развертывание вызвало новые дебаты о роли ИИ в обществе, предложив наглядную иллюстрацию потенциальных рисков и преимуществ новой технологии.

Руководителям технологических компаний, собравшимся в Белом доме в четверг, сказали, что они должны, в первую очередь, «обеспечить безопасность своих продуктов», и предупредили, что администрация открыта для новых правил и законов, касающихся искусственного интеллекта.

Сэм Альтман, исполнительный директор OpenAi, фирмы, стоящей за ChatGPT, сказал журналистам, что в отношении регулирования руководители «на удивление единодушны в том, что должно произойти».

Вице-президент США Камала Харрис заявила в заявлении после встречи, что новая технология может представлять угрозу для безопасности, конфиденциальности и гражданских прав, хотя она также может улучшить жизнь людей.

По ее словам, частный сектор несет «этическую, моральную и юридическую ответственность за обеспечение безопасности своей продукции».

Белый дом объявил об инвестициях Национального научного фонда в размере 140 миллионов долларов (111 миллионов фунтов стерлингов) для запуска семи новых исследовательских институтов искусственного интеллекта.

Призывы к лучшему регулированию резкого роста появляющегося ИИ звучат часто и быстро, как от политиков, так и от технологических лидеров.

Ранее на этой неделе «крестный отец» ИИ Джеффри Хинтон уволился с работы в Google, заявив, что теперь сожалеет о своей работе.

Он сказал Би-би-си, что некоторые опасности чат-ботов с искусственным интеллектом были «довольно страшными».

В марте письмо, подписанное Илоном Маском и основателем Apple Стивом Возняком, призвало приостановить внедрение технологии.

А в среду глава Федеральной торговой комиссии (FTC) Лина Хан изложила свое мнение о том, как и почему необходимо регулировать ИИ.

Есть опасения, что ИИ может быстро заменить рабочие места людей, а также опасения, что чат-боты, такие как ChatGPT и Bard, могут быть неточными и приводить к распространению дезинформации.

Есть также опасения, что генеративный ИИ может нарушить закон об авторском праве. Клонирование голоса ИИ может усугубить мошенничество. Видео, созданные искусственным интеллектом, могут распространять фейковые новости.

Тем не менее, такие сторонники, как Билл Гейтс, выступили против призывов к «паузе» ИИ, заявив, что такой шаг не «решит проблемы» впереди.

Гейтс утверждает, что было бы лучше сосредоточиться на том, как лучше всего использовать разработки в области ИИ.

А другие считают, что существует опасность чрезмерного регулирования, что даст стратегическое преимущество технологическим компаниям в Китае.


Добавить комментарий