Британський суддя використав ChatGPT для написання ухвали

Британський суддя використав ChatGPT для написання ухвали

Суддя апеляційного суду назвав ChatGPT «дуже корисним» після того, як він використав чат-бот зі штучним інтелектом для написання частини постанови.

Лорд-суддя Бірсс, який спеціалізується на праві інтелектуальної власності, сказав, що він використовував інструмент створення тексту, щоб підсумувати сферу права, з якою він був знайомий, перш ніж скопіювати та вставити її слова в судове рішення.

Виступаючи на конференції The Law Society, лорд-суддя Бірсс сказав, що ChatGPT і подібні програми ШІ мають «великий потенціал».

Він додав: «Я думаю, що найбільше цікаво те, що ви можете попросити ці великі мовні моделі узагальнити інформацію. Це корисно, і його використовуватимуть, і я можу вам сказати, що я ним користувався.

«Я запитав ChatGPT, чи можете ви дати мені короткий виклад цієї галузі права, і він дав мені абзац. Я знаю відповідь, тому що збирався написати абзац, у якому це було сказано, але він зробив це за мене, і я поставив це на свій розсуд. Він є, і він дуже корисний.

«Я беру повну особисту відповідальність за те, що ставлю на свій суд, я не намагаюся покласти відповідальність на когось іншого. Все, що він робив, — це завдання, яке я збирався виконати і яке я знав відповідь і міг визнати прийнятним».

Зауваження судді, про які спочатку повідомляла The Law Society Gazette, є першим відомим випадком, коли член британського судочинства використовував чат-бот ШІ для написання частини рішення.

Управління суддів відмовилося коментувати чи повідомляти, чи видало воно будь-які офіційні вказівки для суддів щодо використання ChatGPT .

Раніше цього року колумбійський суддя використовував ChatGPT, щоб вирішити справу, запитуючи чат-бота, чи повинна медична страховка дитини-інваліда покривати витрати на відповідне лікування.

Хоча чат-бот сказав «так», це рішення розпалювало глобальну дискусію щодо належного місця штучного інтелекту в правових системах світу.

У червні нью-йоркський юрист заявив, що його «принизили» після того, як його змусили зізнатися, що він використовував ChatGPT для проведення правових досліджень.

Як приклад того, що експерти назвали «проблемою галюцинацій», ChatGPT вигадав шість вигаданих судових справ, які він цитував на підтримку юридичних аргументів Стівена Шварца.

Пізніше суддя Кевін Кастел оштрафував пана Шварца та його фірму Levidow, Levidow and Oberman на 5000 доларів США (4029 фунтів стерлінгів) після того, як назвав їхню заяву «брехнею». Суддя розкритикував фірму за те, що вона «відмовилася від своїх обов’язків» і продовжує «відстоювати фальшиві думки після того, як судові рішення поставили їх існування під сумнів».

Проблема галюцинацій описує тенденцію чат-ботів штучного інтелекту генерувати неправдиву, але переконливо звучачу інформацію у відповідь на людські запити.

Протягом останніх місяців ряд юридичних фірм City уникали технології ChatGPT.

Мішкон де Рея заборонив використання ChatGPT у березні , а старший партнер заявив, що фірма «має чітку політику, згідно з якою клієнтська та конфіденційна інформація фірми не повинна завантажуватися в ChatGPT або будь-які інші моделі».

Натомість фірма Magic Circle Allen & Overy розробила власного чат-бота зі штучним інтелектом під назвою Harvey .

Інструмент, розроблений за підтримки виробників ChatGPT OpenAI, призначений для автоматизації таких завдань, як складання контрактів, хоча фірма каже, що його результат перевіряє юрист.