Hüquqşünaslar ChatGPT-ni saxta məhkəmə məhkəməsinə daxil olmaqda günahlandırırlar, mümkün sanksiyalarla üzləşirlər
Vəkillər Steven A. Schwartz və Peter LoDuca, verdikləri məhkəmə sənədlərində mövcud olmayan məhkəmə işlərinə istinadlar daxil olduqda özlərini qaynar suda tapdılar.
Manhetten federal məhkəməsində hakimdən üzr istəyən vəkillər səhvi süni intellektlə işləyən chatbot ChatGPT ilə əlaqələndiriblər.
Schwartz istifadə etdi GPT söhbəti Müvəkkilinin Kolumbiyanın Aviancaya qarşı iddiasını dəstəkləyən hüquqi presedentləri axtarmaq.
Bununla belə, chatbot uydurma və ya mövcud olmayan hava yolları ilə əlaqəli olduğu ortaya çıxan bir neçə hadisəni təklif etdi.
Şvarts hakimə səhvən buna inandığını izah edib GPT söhbəti halları adi tədqiqat üsulları ilə əlçatmaz olan açıqlanmayan mənbədən əldə edib.
O, sitatların düzgünlüyünü yoxlamaq üçün sonrakı araşdırmalarında uğursuz olduğunu etiraf etdi. Schwartz təəccüb və təəssüfünü ifadə edərək, ChatGPT-nin iddiaları uydurmaq qabiliyyətini dərk etmədiyini etiraf etdi.
İndi vəkillər məhkəmə sənədlərinə uydurma hüquqi araşdırmaların daxil edilməsinə görə potensial sanksiyalarla üzləşirlər.
Siz həmçinin kimi ola bilər: ChatGPT - bu nədir və necə işləyir?
Hüquqşünaslar ChatGPT-ni Uydurma Hüquqi Araşdırmanın Mənbəyi kimi göstərirlər
ABŞ-ın Dairə Hakimi P. Kevin Castel həm çaşqınlıq, həm də vəkillərin etibarından narahat olduğunu bildirib. GPT söhbəti və saxta qanuni sitatları tez bir zamanda düzəltməmələri.
Aviancanın vəkilləri və məhkəmə onları problemlə bağlı xəbərdar etmişdi, lakin sitatlar düzəldilməyib.
Hakim Castel, Schwartz-ı ChatGPT ilə xüsusi icad edilmiş məhkəmə işi ilə qarşı-qarşıya qoyaraq, onun cəfəng təbiətini vurğuladı.
O, Schwartz-dan çaşdırıcı təqdimatı başa düşməsi ilə bağlı sual verdi. Bunun üçün Schwartz fərqli iş çıxarışlarına əsaslanaraq səhv bir izahat verdi.
Schwartz və LoDuca öz hərəkətlərinə görə şəxsi və peşəkar peşmanlıqlarını ifadə edərək, hakimdən səmimi şəkildə üzr istədilər.
Schwartz bildirib ki, o, kobud səhvdən dərs alıb və gələcəkdə oxşar hadisənin qarşısını almaq üçün tədbirlər görüb.
Schwartz-ın işinə güvənən LoDuca, tərtib edilmiş tədqiqatı lazımi şəkildə nəzərdən keçirmədiyini etiraf etdi.
Vəkillərin müdafiəsi iddia etdi ki, təqdimat pis niyyətdən çox ehtiyatsızlıqdan irəli gəlir və sanksiya tələb etməməlidir.
Hüquq ekspertləri və müşahidəçilər süni intellekt texnologiyalarının məhdudiyyətlərini və potensial risklərini tam dərk etmədən istifadənin təhlükələrini vurğulayırlar.
Daxil olan iş GPT söhbəti hüquqşünasların süni intellekt sisteminin necə işlədiyini tam dərk edə bilməyəcəyini göstərir. Real görünən uydurma məlumatların daxil edilməsinə gətirib çıxarır.
Hadisə maarifləndirmə və ehtiyatlılığın zəruriliyi ilə bağlı narahatlıqlar yaradıb. Hüquq sahəsində perspektivli AI texnologiyalarından istifadə edərkən.
Potensial sanksiya ilə üzləşən iki vəkil qondarma hüquqi araşdırmanın məhkəmə müraciətinə daxil edilməsini GPT söhbəti, süni intellektlə işləyən chatbot.
Həmçinin vəkillər yanlış fikirlərini və sitatların düzgünlüyünü yoxlaya bilmədiklərini bildirərək hakimdən üzr istəyiblər.