Ваш браузер устарел, поэтому сайт может отображаться некорректно. Обновите ваш браузер для повышения уровня безопасности, скорости и комфорта использования этого сайта.
Обновить браузер

Врет и не краснеет: как нейросеть ChatGPT подставила опытного адвоката

Теперь юрист вынужден оправдываться перед судом за ложные сведения

6 июня 2023Обсудить
Врет и не краснеет: как нейросеть ChatGPT подставила опытного адвоката
Источник:
Jiri Hera / Alamy

Адвокат Стивен Шварц из Нью-Йорка с 30-летним опытом работы оказался в затруднительном положении из-за использования известного ChatGPT с искусственным интеллектом для подготовки к судебному заседанию. Его клиент судился с авиакомпанией из-за травмы, и чат-бот подобрал Шварцу несколько прецедентов из юридической практики. Но на суде выяснилось, что все эти случаи ИИ просто выдумал. Теперь адвокату грозит наказание за поддельные примеры и использование «недостоверного источника информации» — так суд назвал ChatGPT.

Роберто Мата подал иск против Avianca Airlines, утверждая, что был сбит сервировочной металлической тележкой и получил травму колена на рейсе данной авиакомпании, во время перелета из Сальвадора в Нью-Йорк в 2019 году. Юристы компании пытались прекратить дело за истечением срока давности. Но адвокат Шварц провел исследование по аналогичным делам и предоставил суду 10-страничный отчет с десятком аналогичных судебных решений. В юридической практике они называются прецедентами и учитываются как примеры.

Однако, когда юристы авиакомпании тоже ознакомились с предоставленными материалами, они заявили, что случаев, упомянутых там, не существовало. Например, в реальности не было судебных разбирательств «Мартинез против Delta Air Lines», «Цихерман против Korean Air Lines» и «Варгезе против China Southern Airlines». Адвокаты предположили, что их автором «был какой-то чат-бот». С ними согласился и судья Кевин Кастел.

Адвокаты Avianca Airlines попали в точку: Шварц признал, что для юридического исследования, помимо собственных сил, использовал ChatGPT, но только как умный поисковик. Юрист рассчитывал с его помощью найти больше информации по схожим делам. По его словам, он никогда раньше не пользовался этой технологией и не знал, что она может предоставить ложные данные.

Прежде чем предоставить отчет суду, Стивен Шварц просил чат-бот подтвердить информацию. В доказательство своих слов он показал суду копию переписки с ChatGPT.

  • Шварц: «Является ли дело Варгезе реальным, и являются ли другие дела, которые вы предоставили, реальными?»

  • Бот: «Случаи, которые я предоставил, реальны и их можно найти в авторитетных юридических базах данных».

Теперь Стивену Шварцу с 30-летним стажем адвокатской деятельности пришлось извиняться за ложь искусственного интеллекта перед судом. На 8 июня назначено новое слушание, на котором будут обсуждать уже деятельность не авиакомпании, а самого Шварца. Он должен будет доказать судье, почему его не следует наказывать за мошенничество.

Ранее профессор MIT Макс Тегмарк объяснил, почему человечеству из-за нейросетей грозит вымирание, как птицам додо с Маврикия.

Подписываясь на рассылку вы принимаете условия пользовательского соглашения