Адвокатите обвиняват ChatGPT за включване на фалшива съдебна практика, изправени пред възможни санкции
Адвокатите Стивън А. Шварц и Питър ЛоДука се озоваха в гореща вода, когато съдебна документация, която направиха, включваше препратки към несъществуващи съдебни дела.
Адвокатите, извинявайки се на съдия във федералния съд в Манхатън, приписаха грешката на ChatGPT, чатбот, захранван с изкуствен интелект.
Използван Шварц ChatGPT за да търси правни прецеденти в подкрепа на делото на неговия клиент срещу Avianca, колумбийска авиокомпания.
Чатботът обаче предложи няколко случая, които се оказаха изфабрикувани или включващи несъществуващи авиокомпании.
Шварц обясни на съдията, че погрешно вярва в това ChatGPT са получили случаите от неразкрит източник, недостъпен чрез конвенционалните изследователски методи.
Той призна, че не е успял в последващото си изследване да провери точността на цитатите. Шварц изрази изненада и съжаление, като призна, че не разбира способността на ChatGPT да фабрикува случаи.
Сега адвокатите са изправени пред потенциални санкции за включването на фиктивни правни изследвания в съдебната документация.
Може да Ви хареса: ChatGPT – какво е това и как работи?
Адвокатите цитират ChatGPT като източник на фиктивни правни изследвания
Окръжният съдия от САЩ П. Кевин Кастел изрази едновременно объркване и загриженост относно разчитането на адвокатите на ChatGPT и неспособността им да коригират своевременно фалшивите правни цитати.
Адвокатите на Avianca и съдът ги предупредиха за проблема, но цитатите не бяха коригирани.
Съдия Кастел изправи Шварц пред конкретен измислен правен казус с ChatGPT, подчертавайки безсмисления му характер.
Той разпита Шварц за разбирането му за объркващото представяне. На което Шварц предложи погрешно обяснение въз основа на различни извадки от случаи.
Шварц и Лодука се извиниха искрено на съдията, като изразиха лично и професионално разкаяние за действията си.
Шварц заяви, че се е поучил от гафа и е въвел предпазни мерки, за да предотврати подобно събитие в бъдеще.
LoDuca, който се довери на работата на Шварц, призна, че не е успял да прегледа адекватно събраните изследвания.
Защитата на адвокатите твърди, че подаването е резултат от небрежност, а не от недобросъвестност и не трябва да изисква санкции.
Правни експерти и наблюдатели подчертаха опасностите от използването на AI технологии без задълбочено разбиране на техните ограничения и потенциални рискове.
Случаят, включващ ChatGPT илюстрира как юристите може да не разбират напълно как работи системата за изкуствен интелект. Води до включване на измислена информация, която изглежда реалистична.
Инцидентът породи опасения относно необходимостта от информираност и предпазливост. При използване на обещаващи AI технологии в правната сфера.
Двама адвокати, изправени пред потенциални санкции, приписаха включването на фиктивно правно изследване в съдебно дело на ChatGPT, задвижван от AI чатбот.
Също така адвокатите се извиниха на съдията, като изразиха своите погрешни схващания и липсата на проверка на точността на цитатите.