Юрист використовував ChatGPT і тепер повинен відповісти суду за вигадані факти

Дмитро Сизов

Адвокати, які подають до суду на колумбійську авіакомпанію Avianca, подали короткий опис попередніх справ, які були щойно вигадані ChatGPT, повідомляє сьогодні The New York Times . Після того, як адвокат протилежної сторони вказав на неіснуючі справи, окружний суддя США Кевін Кастел підтвердив, що «шість із поданих справ є фальшивими судовими рішеннями з фальшивими цитатами та фальшивими внутрішніми цитатами», і призначив слухання, коли він розглядає санкції для адвокатів позивача. .

Адвокат Стівен А. Шварц визнав у письмовій заяві , що використовував чат-бот OpenAI для свого дослідження. Щоб перевірити випадки, він зробив єдину розумну річ: запитав чат-бота, чи він бреше.

На скріншоті видно, як адвокат запитує, чи правдив один із наведених випадків, а чат-бот відповідає, що так.  Потім адвокат запитує: «Яке ваше джерело?»
Ця справа йде не дуже добре. Зображення: SDNY

Коли він запитав джерело, ChatGPT продовжив вибачення за попередню плутанину та наполягав, що справа справжня, сказавши, що її можна знайти на Westlaw та LexisNexis. Задоволений, він запитав, чи були інші випадки фальшивими, і ChatGPT стверджував, що всі вони справжні.

Адвокат протилежної сторони поінформував суд про проблему в болісних подробицях, розповідаючи, що подання адвокатів Levidow, Levidow & Oberman було коротким висновком, повним брехні. В одному прикладі, неіснуючій справі під назвою Varghese v. China Southern Airlines Co., Ltd., чат-бот посилався на іншу справжню справу, Zicherman v. Korean Air Lines Co., Ltd. , але отримав дату (та інші деталі) неправильно, кажучи, що це було прийнято через 12 років після початкового рішення 1996 року.

Шварц каже, що він «не знав про можливість того, що його вміст може бути неправдивим». Зараз він «дуже шкодує, що використав генеративний штучний інтелект для доповнення юридичних досліджень, проведених тут, і ніколи не робитиме цього в майбутньому без абсолютної перевірки його автентичності».

Шварц не має права практикувати в Південному окрузі Нью-Йорка, але спочатку подав позов до того, як його було передано до цього суду, і каже, що продовжував над ним працювати. Інший адвокат тієї ж фірми, Пітер Лодука, став довіреним у справі, і йому доведеться постати перед суддею, щоб пояснити, що саме сталося.

Це ще раз підкреслює абсурдність використання чат-ботів для дослідження без подвійної (або потрійної) перевірки їхніх джерел десь ще. Дебют Microsoft Bing тепер сумно відомий як асоціюється з безлюдною брехнею, газовим світлом та емоційними маніпуляціями . Bard, чат-бот Google зі штучним інтелектом, вигадав факт про космічний телескоп Джеймса Вебба у своїй першій демонстрації . Бінг навіть збрехав про закриття Bard у смішному прикладі з березня минулого року.

Бути чудовим умінням імітувати шаблони письмової мови, щоб зберегти вигляд непохитної впевненості, нічого не варте, якщо ви навіть не можете зрозуміти, скільки разів літера «е» з’являється в кетчупі .

У будь-якому випадку, ось суддя вказує на всі способи того, як запис адвоката був абсолютним фестивалем брехні: