Юрист использовал ChatGPT в суде и попал в большие неприятности
Всё началось со стандартного судебного процесса: мужчина подал в суд на авиакомпанию Avianca, заявив, что получил травму ноги из-за незакрепленной тележки. Его адвокат представил судье краткое исследование, в котором содержались аналогичные дела, такие как «Петерсен против Iran Air 905 F. Supp 2d 121 (DDC 2012)» и «Миллер против United Airlines, Inc, 174 F.3d 366 (2-й округ, 1999 г.)».
Однако, как позже было доказано в показаниях под присягой, большинство дел оказались «несуществующими».
ChatGPT обманывает юриста
«Исследование» составил адвокат Стивен Шварц из манхэттенской юридической фирмы Levidow, Levidow & Oberman, за плечами которого 30-летний опыт работы. Шварц признался суду, что раньше никогда не пользовался ChatGPT для юридических исследований и «не знал о возможности того, что его содержание может быть ложным».
Адвокат также добавил, что просил чат-бот перепроверять источники. Во всех случаях ChatGPT подтверждал их реальность.
Последствия
Шварц признался, что «очень сожалеет» об использовании чат-бота для судебного исследования. Он также отметил, что «никогда не будет делать этого в будущем без абсолютной проверки его подлинности».
Однако судья указал на серьезность последствий и заявил, что не может закрыть глаза на случившиеся. Теперь в июне Шварца ждет слушание, где будет обсуждаться наказание для юриста.
Кстати, ранее исследователи из Стэнфордского университета проверили надежность ответов ChatGPT и пришли к довольно тревожным выводам. Они заметили, что несмотря на довольно убедительные тексты, чат-бот не часто подкрепляет предложения цитатами, а четверть из них не имеют надежных ссылок. Подробнее об этом в нашем материале.