ChatGPT: американский юрист признает, что использует ИИ для исследования дел


Юристу из Нью-Йорка предстоит собственное судебное слушание после того, как его фирма использовала инструмент искусственного интеллекта ChatGPT для проведения юридических исследований.

Судья заявил, что суд столкнулся с «беспрецедентным обстоятельством» после того, как было обнаружено, что иск ссылается на примеры судебных дел, которых не существовало.

ChatGPT can answer questions using natural, human-like language and mimic other writing styles

Адвокат, который использовал этот инструмент, сказал суду, что он «не знал, что его содержание может быть ложным».

ChatGPT создает исходный текст по запросу, но поставляется с предупреждениями о том, что он может «предоставлять неточную информацию».

В первоначальном случае мужчина подал в суд на авиакомпанию из-за предполагаемого телесного повреждения. Его юридическая группа представила краткий отчет, в котором цитировались несколько предыдущих судебных дел, в попытке доказать, используя прецедент, почему дело должно двигаться вперед.

Но позже юристы авиакомпании написали судье, что не могут найти несколько дел, упомянутых в кратком изложении.

«Шесть из представленных дел кажутся фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними цитатами», — написал судья Кастель в приказе, требующем от юридической команды этого человека объяснений.

В ходе рассмотрения нескольких документов выяснилось, что исследование подготовил не Питер ЛоДука, адвокат истца, а его коллега из той же юридической фирмы. Стивен А. Шварц, проработавший адвокатом более 30 лет, использовал ChatGPT для поиска подобных предыдущих дел.

В своем письменном заявлении Шварц пояснил, что LoDuca не участвовал в исследовании и не знал, как оно проводилось.

Шварц добавил, что он «очень сожалеет», что полагался на чат-бота, который, по его словам, он никогда раньше не использовал для юридических исследований и «не знал, что его содержание может быть ложным».

Он пообещал никогда не использовать ИИ для «дополнения» своих юридических исследований в будущем «без абсолютной проверки его подлинности».

Скриншоты, прикрепленные к заявке, показывают разговор между Шварцем и ChatGPT.

«Варгезе — это реальное дело», — говорится в одном сообщении, в котором упоминается дело «Варгезе против China Southern Airlines Co Ltd», одно из дел, которое не смог найти ни один другой юрист.

ChatGPT отвечает, что да, это побуждает «S» спросить: «Какой у вас источник».

После «двойной проверки» ChatGPT снова отвечает, что дело действительно и что его можно найти в юридических справочных базах данных, таких как LexisNexis и Westlaw.

В нем говорится, что другие дела, которые он предоставил Шварцу, также реальны.

Обоим юристам, работающим в фирме Levidow, Levidow & Oberman, было приказано объяснить, почему они не должны быть привлечены к дисциплинарной ответственности на слушаниях 8 июня.

Миллионы людей использовали ChatGPT с момента его запуска в ноябре 2022 года.

Он может отвечать на вопросы естественным, человеческим языком, а также может имитировать другие стили письма. Он использует Интернет, как и в 2021 году, в качестве своей базы данных.

Высказывались опасения по поводу потенциальных рисков искусственного интеллекта (ИИ), включая потенциальное распространение дезинформации и предвзятости.


Добавить комментарий