Avokatët fajësojnë ChatGPT për përfshirjen e praktikës gjyqësore false, përballen me sanksione të mundshme
Avokatët Steven A. Schwartz dhe Peter LoDuca u gjendën në ujë të nxehtë kur një dosje gjyqësore që ata bënë përfshinte referenca për çështje gjyqësore që nuk ekzistonin.
Avokatët, duke i kërkuar falje një gjyqtari në gjykatën federale të Manhatanit, ia atribuuan gabimin ChatGPT, një chatbot me inteligjencë artificiale.
Schwartz përdorur Biseda GPT për të kërkuar precedentë ligjorë që mbështesin çështjen e klientit të tij kundër Avianca, një kompani ajrore kolumbiane.
Megjithatë, chatbot sugjeroi disa raste që rezultuan të fabrikuara ose që përfshinin linja ajrore joekzistente.
Schwartz i shpjegoi gjyqtarit se ai gabimisht e besoi këtë Biseda GPT i ka marrë rastet nga një burim i pazbuluar i paarritshëm nëpërmjet metodave konvencionale të kërkimit.
Ai pranoi se dështoi në kërkimin e tij vijues për të verifikuar saktësinë e citimeve. Schwartz shprehu habi dhe keqardhje, duke pranuar se ai nuk e kuptonte aftësinë e ChatGPT për të fabrikuar çështje.
Avokatët tani përballen me sanksione të mundshme për përfshirjen e tyre të kërkimit juridik fiktiv në dosjen gjyqësore.
Ju mund të dëshironi: ChatGPT – Çfarë është dhe si funksionon?
Avokatët citojnë ChatGPT si Burimin e Kërkimit Fiktiv Ligjor
Gjykatësi i qarkut të SHBA P. Kevin Castel shprehu konfuzion dhe shqetësim lidhur me mbështetjen e avokatëve në Biseda GPT dhe dështimi i tyre për të korrigjuar menjëherë citimet false ligjore.
Avokatët e Avianca-s dhe gjykata i kishin paralajmëruar për problemin, por citimet nuk u korrigjuan.
Gjyqtari Castel u përball me Schwartz-in me një çështje ligjore specifike të shpikur me ChatGPT, duke theksuar natyrën e saj të pakuptimtë.
Ai e pyeti Schwartz-in për kuptimin e tij të prezantimit konfuz. Për të cilin Schwartz ofroi një shpjegim të gabuar bazuar në fragmente të ndryshme të rasteve.
Schwartz dhe LoDuca i kërkuan sinqerisht falje gjyqtarit, duke shprehur pendim personal dhe profesional për veprimet e tyre.
Schwartz deklaroi se ai kishte mësuar nga gabimi dhe kishte zbatuar masa mbrojtëse për të parandaluar një dukuri të ngjashme në të ardhmen.
LoDuca, i cili i besoi punës së Schwartz-it, pranoi dështimin e tij për të rishikuar në mënyrë adekuate kërkimin e përpiluar.
Mbrojtja e avokatëve argumentoi se parashtrimi rezultoi nga pakujdesia dhe jo nga keqbesim dhe nuk duhet të garantojë sanksione.
Ekspertët ligjorë dhe vëzhguesit kanë theksuar rreziqet e përdorimit të teknologjive të AI pa një kuptim të plotë të kufizimeve dhe rreziqeve të tyre të mundshme.
Rasti që përfshin Biseda GPT ilustron se si avokatët mund të mos e kuptojnë plotësisht se si funksionon sistemi i AI. Duke çuar në përfshirjen e informacionit imagjinar që duket realist.
Incidenti ka ngritur shqetësime për nevojën për ndërgjegjësim dhe kujdes. Kur përdorni teknologji premtuese të AI në fushën ligjore.
Dy avokatë që përballen me sanksione të mundshme ia atribuuan përfshirjen e kërkimit ligjor fiktiv në një dosje gjyqësore Biseda GPT, një chatbot i fuqizuar nga AI.
Gjithashtu avokatët i kërkuan falje gjyqtarit, duke shprehur keqkuptimet e tyre dhe mos verifikimin e saktësisë së citimeve.