Комиссия ЕС упростит подачу иска из-за продуктов ИИ


Европейская комиссия предложила новые правила, чтобы помочь людям, пострадавшим от продуктов с использованием искусственного интеллекта (ИИ) и цифровых устройств, таких как дроны.

Директива об ответственности ИИ уменьшит бремя доказывания для людей, подающих в суд на инциденты, связанные с такими предметами.

A drone being used for agriculture

Комиссар юстиции Дидье Рейндерс заявил, что это создаст правовую базу, подходящую для цифровой эпохи.

Беспилотные автомобили, голосовые помощники и поисковые системы могут попасть под действие директивы.

В случае принятия правила Комиссии могут работать вместе с предложенным ЕС Законом об искусственном интеллекте — первым в своем роде законом, устанавливающим ограничения на то, как и когда можно использовать системы ИИ.

Системы искусственного интеллекта обучаются на больших объемах данных или информации, чтобы позволить машинам выполнять задачи, которые обычно считаются делом человеческого интеллекта.

Директива об ответственности ИИ, опубликованная Европейской комиссией в среду, вводит «презумпцию причинно-следственной связи» для тех, кто заявляет о травмах в результате использования продуктов с поддержкой ИИ.

Это означает, что жертвам не придется распутывать сложную систему ИИ, чтобы доказать свою правоту, если можно показать причинно-следственную связь с производительностью ИИ продукта и связанным с этим вредом.

Долгое время социальные сети скрывались за оговоркой, что они являются всего лишь платформой для чужих материалов и поэтому не несут ответственности за их содержание.

ЕС не хочет повторения этого сценария, когда компании, производящие, например, дроны, могут выйти из-под контроля, если они причинят вред, только потому, что сама фирма не стояла непосредственно за контролерами.

Если ваш продукт настроен так, чтобы причинять неудобства или причинять ущерб, то вы должны взять на себя ответственность, если это произойдет, — это четкое сообщение — и, возможно, оно уже запоздало.

Не слишком ли это жестоко по отношению к сравнительно новой отрасли? Если автомобиль разбивается из-за механики внутри транспортного средства, это зависит от производителя. А вот поведение водителя — нет.

Если этот проект будет принят, все внимание будет обращено на первый тестовый пример. Европа продолжает гоняться за большими технологиями с большим регулированием, но реалистично ли это здесь?

По данным Европейской комиссии, использование ИИ с высоким риском может включать инфраструктуру или продукты, которые могут напрямую повлиять на чью-то жизнь и средства к существованию, такие как транспорт, оценка экзаменов и пограничный контроль.

Раскрытие информации о таких продуктах позволит получить больше информации об ответственности, но на него распространяются меры безопасности для «защиты конфиденциальной информации».

Хотя такие положения в директиве могут сделать бизнес «недовольным», Сара Кэмерон, директор по правовым вопросам технологий в юридической фирме Pinsent Masons, сказала, что правила помогли прояснить ответственность за продукты с поддержкой ИИ как для потребителей, так и для бизнеса.

«Основным препятствием для внедрения ИИ предприятиями были сложность, автономия и непрозрачность (так называемый эффект черного ящика) ИИ, создающие неопределенность в отношении установления ответственности и того, с кем он связан», — сказала она.

«Предложение гарантирует, что, когда система ИИ неисправна и вызывает физический ущерб или потерю данных, можно запросить компенсацию у поставщика системы ИИ или у любого производителя, который интегрирует систему ИИ в другой продукт».


Добавить комментарий