Семья ребенка, пострадавшего в результате стрельбы в канадской школе, подает в суд на OpenAI


Семья девочки, получившей критические ранения во время массовой стрельбы в канадской школе, подает в суд на компанию OpenAI, разработчика ChatGPT, утверждая, что знала о планах подозреваемого совершить нападение, но не уведомила об этом власти.

12-летняя Майя Гебала получила ранения в шею и голову во время нападения в Тамблер-Ридж 10 февраля и до сих пор находится в больнице.

Двое мужчин стоят на улице спиной к камере, глядя вниз на большую коллекцию цветов и подарков, оставленных для жертвы стрельбы в школе под большим деревом.

Первоначальный аккаунт ChatGPT, связанный с подозреваемым, 18-летней Джесси Ван Рутселаар, был заблокирован OpenAI в июне 2025 года из-за характера ее общения с чат-ботом, но канадская полиция не была уведомлена.

OpenAI сообщила BBC, что намерена внести «значимые изменения», чтобы предотвратить подобные трагедии в будущем.

В результате нападения погибли восемь человек, в том числе пятеро маленьких детей и мать подозреваемого, это одно из самых смертоносных нападений с применением огнестрельного оружия в истории Канады.

В гражданском иске, поданном матерью Гебалы, Сией Эдмондс, утверждается, что Рутселаар создала аккаунт в ChatGPT до достижения ею 18 лет — то, что пользователи могут сделать с согласия родителей.

Истцы утверждают, что на сайте не проводилась проверка возраста.

В иске утверждается, что подозреваемый рассматривал чат-бота как «доверенное лицо» и в течение нескольких дней в конце весны или начале лета 2025 года описывал ему «различные сценарии, связанные с применением огнестрельного оружия».

Затем, как утверждается в иске, двенадцать сотрудников OpenAI отметили эти сообщения как «указывающие на непосредственную угрозу серьезного вреда другим» и рекомендовали уведомить канадские правоохранительные органы.

Вместо этого, как утверждается, просьба связаться с властями была «отклонена», и единственным принятым решением стала блокировка аккаунта Рутселаара.

Ранее OpenAI заявляла, что не уведомила полицию, поскольку аккаунт не соответствовал критериям достоверного или неизбежного плана причинения серьезного физического вреда другим.

Затем подозреваемый смог открыть второй аккаунт в ChatGPT, несмотря на то, что система OpenAI ранее его помечала как подозрительный, и «продолжать планировать сценарии, связанные с применением огнестрельного оружия».

В иске утверждается, что компания «обладала конкретными знаниями о долгосрочном планировании стрелком массового инцидента», но «не предприняла никаких шагов для принятия мер на основании этих знаний».

Истцы заявляют, что в результате действий компании Гебала, в которого трижды выстрелили после того, как он попытался запереть дверь библиотеки, чтобы не пустить стрелка, получил «катастрофическую черепно-мозговую травму».

Ответ OpenAI

В заявлении для BBC представитель OpenAI назвал произошедшее «невыразимой трагедией», добавив, что компания выражает соболезнования жертвам, их семьям и общественности.

«OpenAI по-прежнему привержена сотрудничеству с правительством и правоохранительными органами для внесения значимых изменений, которые помогут предотвратить подобные трагедии в будущем», — заявил представитель компании.

4 марта генеральный директор OpenAI Сэм Альтман провел виртуальную встречу с министром искусственного интеллекта Канады Эваном Соломоном и премьер-министром Британской Колумбии Дэвидом Эби.

По данным Wall Street Journal, Альтман «пообещал усилить протоколы уведомления полиции о потенциально опасных взаимодействиях» и принести извинения сообществу Тамблер-Ридж.

В открытом письме канадским чиновникам от 26 февраля, написанном вице-президентом OpenAI по глобальной политике и распространенном среди СМИ, компания заявила, что в последние месяцы внесла ряд изменений, включая привлечение «экспертов в области психического здоровья и поведения» для оценки случаев и повышение гибкости критериев для передачи дела в полицию.

В связи с этими изменениями, OpenAI заявила, что сообщила бы об учетной записи подозреваемого в ChatGPT в соответствии с новыми правилами.

«Мы обязуемся усилить нашу систему обнаружения, чтобы лучше предотвращать попытки обойти наши меры безопасности и уделять приоритетное внимание выявлению правонарушителей с самым высоким риском», — написала компания.

Компания OpenAI заявила, что также установит прямой контакт с канадскими правоохранительными органами, чтобы оперативно выявлять любые возможные будущие случаи, «потенциально способные привести к реальному насилию».

Министр искусственного интеллекта Канады Эван Соломон заявил 27 февраля, что, хотя законодатели видят готовность технологической компании улучшить свои протоколы, «мы еще не видели подробного плана того, как эти обязательства будут реализованы на практике».


Добавить комментарий