TechNews.bg
Водещи новиниЛ@йфНовини

ChatGPT подведе опитен адвокат с невярна информация

Изкуственият интелект ChatGPT причини сериозни главоболия на адвокатска кантора
(снимка: CC0 Public Domain)

Американският адвокат Стивън Шварц използва популярния разговорен бот ChatGPT, за да подготви документи за дело срещу Avianca. Но опитът за опростяване на работата с помощта на AI алгоритъма се оказа катастрофа за адвоката – творението на OpenAI го снабди с ненадеждна информация и сега Шварц ще бъде наказан.


Шварц от адвокатската кантора Levidow, Levidow & Oberman, който прекара последните 30 години от живота си в Ню Йорк, представляваше Роберто Мата в дело срещу колумбийската авиокомпания Avianca. Мата, според собственото му изявление, е бил наранен по време на полет през 2019 г. от служител на компанията превозвач – стюардеса го ударила в коляното с метална количка, която се използва за обслужване на пътниците. Това накарало мъжът да заведе дело срещу Avianca с подкрепата на Levidow, Levidow & Oberman.


[related-posts]

Адвокатите на Avianca решават да прекратят съдебния спор и искат от федералния съдия Кевин Кастел да отхвърли делото на основание, че давността е изтекла. Адвокатите на пострадалия пътник обаче се позовават на прецедент – те цитират като пример няколко подобни случая наведнъж, чието разглеждане в миналото е приключило в полза на ищеца.

Документите, представени от Шварц в съда, включват дела като Мартинес срещу Delta Air Lines, Зикерман срещу Korean Air Lines и Варгес срещу China Southern Airlines. Както се оказа по-късно, авторът на документите решил да не си губи времето в търсене на бази данни с правна информация като LexisNexis или Westlaw, а прибягнал до помощта на разговорния бот ChatGPT от OpenAI. Опитният адвокат Шварц не проверил внимателно данните, получени от бота, и веднага ги въвел в документите, които след това са предадени на съда.

Участниците в процеса се усъмняват, че нещо не е наред, тъй като нито представителите на ответника, нито самият съдия успяват да намерят текстовете на решенията по делата, посочени в документите. Съдията иска обяснение от Шварц, което той представя писмено. Причината, поради която съдът не е успял да намери случаите, посочени от адвоката в документите, се оказва изключително проста – в действителност те никога не са съществували, а ChatGPT просто ги е „измислил”, опитвайки се да подкрепи позицията на ищеца.

Адвокатът изразява съжаление за решението си да разчита на услугата с изкуствен интелект. Той твърди, че никога не е използвал ChatGPT преди това и следователно не е знаел, че текстът, генериран от бота, може да съдържа невярна информация.

Шварц се опитал да провери автентичността на данните, издадени от бота, с помощта на… същия бот: адвокатът пита ChatGPT дали случаите, на които той се позовава, наистина съществуват. Отговорът на диалоговия бот е възможно най-кратък: „Да”.

Съдия Кастел описва ситуацията, в която правните документи са затрупани с „фалшиви съдебни решения, препратки и цитати”, като безпрецедентна.

Съдът е насрочил дисциплинарно изслушване за 8 юни 2023 г., по време на което ще бъдат обсъдени потенциални санкции срещу Шварц и колегата му от адвокатската кантора Питър Лодука.

още от категорията

Бизнесите ще използват 1,3 милиарда AI агента до 2028 г. 

TechNews.bg

ChatGPT вече показва реклами, дори на платените абонати

TechNews.bg

Провал в тестовете за сигурност – никой не може да контролира суперинтелекта

TechNews.bg

AI агент Kiro разработва самостоятелно софтуер

TechNews.bg

Три принципа, без които изкуственият интелект ще полудее

TechNews.bg

AI анализира разговорите в затвора, предотвратява престъпления

TechNews.bg

1 коментар

Българин 29/05/2023 at 17:28

Разчитай на генератор на думи да ти върши работата …

Отговор

Leave a Reply to Българин