HOT

HOTParashikimi i borës së rëndë në Kolorado në pjesët e Kolorados LEXO TANI
HOTRrjedhja e Serisë Google Pixel 8 sugjeron mbështetje për modalitetin e desktopit me USB DisplayPort LEXO TANI
HOTPantallona me fund zile LEXO TANI
HOTLufta e guximshme e Dukeshës së Jorkut Sarah Ferguson kundër kancerit të lëkurës LEXO TANI
HOTTVS patenton dizajnin e ri të motoçikletave të Cruiser, konkurrent i mundshëm i Royal Enfield Meteor 350 LEXO TANI
HOTAksionet e Google do të rriten ndërsa analisti parashikon rritje dyshifrore LEXO TANI
HOTPërvoja e marrësit pionier me implantin Neuralink: Duke luajtur Civilization VI përmes Thought Alone LEXO TANI
HOTPolemika e Bibby Stokholm Barge: Dilema e strehimit të azilkërkuesve në Mbretërinë e Bashkuar LEXO TANI
HOTStrategjia e Pavarësisë së Energjisë së Mbretërisë së Bashkuar: Një rrugë drejt rritjes së punës dhe mbështetjes te vetja LEXO TANI
HOTKriza e emigrantëve në Arizona: Ajo përballet me një rritje mes sfidave të valëve të të nxehtit LEXO TANI
FAQE
menu parafiks
REKLAMA :)
MERRNI LAJME NGA BOTA APO LOKALE! PLICKER JU OFRON NJË EKSPERIENCE DHE UDHËZIM TË MIRË TË PËRMBAJTJES. FILLO TANI TË PËRVOJENI. QENDRO I LUMTUR.
Sam bennet

Sam bennet

Qershor 11 2023

3 DK LEXO

15 Lexoni.

Avokatët fajësojnë ChatGPT për përfshirjen e praktikës gjyqësore false, përballen me sanksione të mundshme

Avokatët Steven A. Schwartz dhe Peter LoDuca u gjendën në ujë të nxehtë kur një dosje gjyqësore që ata bënë përfshinte referenca për çështje gjyqësore që nuk ekzistonin.

Avokatët, duke i kërkuar falje një gjyqtari në gjykatën federale të Manhatanit, ia atribuuan gabimin ChatGPT, një chatbot me inteligjencë artificiale.

Schwartz përdorur Biseda GPT për të kërkuar precedentë ligjorë që mbështesin çështjen e klientit të tij kundër Avianca, një kompani ajrore kolumbiane.

 Megjithatë, chatbot sugjeroi disa raste që rezultuan të fabrikuara ose që përfshinin linja ajrore joekzistente.

Schwartz i shpjegoi gjyqtarit se ai gabimisht e besoi këtë Biseda GPT i ka marrë rastet nga një burim i pazbuluar i paarritshëm nëpërmjet metodave konvencionale të kërkimit.

Ai pranoi se dështoi në kërkimin e tij vijues për të verifikuar saktësinë e citimeve. Schwartz shprehu habi dhe keqardhje, duke pranuar se ai nuk e kuptonte aftësinë e ChatGPT për të fabrikuar çështje.

Avokatët tani përballen me sanksione të mundshme për përfshirjen e tyre të kërkimit juridik fiktiv në dosjen gjyqësore.

Ju mund të dëshironi: ChatGPT – Çfarë është dhe si funksionon?

Biseda GPT

Gjykatësi i qarkut të SHBA P. Kevin Castel shprehu konfuzion dhe shqetësim lidhur me mbështetjen e avokatëve në Biseda GPT dhe dështimi i tyre për të korrigjuar menjëherë citimet false ligjore.

Avokatët e Avianca-s dhe gjykata i kishin paralajmëruar për problemin, por citimet nuk u korrigjuan.

Gjyqtari Castel u përball me Schwartz-in me një çështje ligjore specifike të shpikur me ChatGPT, duke theksuar natyrën e saj të pakuptimtë.

Ai e pyeti Schwartz-in për kuptimin e tij të prezantimit konfuz. Për të cilin Schwartz ofroi një shpjegim të gabuar bazuar në fragmente të ndryshme të rasteve.

Schwartz dhe LoDuca i kërkuan sinqerisht falje gjyqtarit, duke shprehur pendim personal dhe profesional për veprimet e tyre.

Schwartz deklaroi se ai kishte mësuar nga gabimi dhe kishte zbatuar masa mbrojtëse për të parandaluar një dukuri të ngjashme në të ardhmen.

LoDuca, i cili i besoi punës së Schwartz-it, pranoi dështimin e tij për të rishikuar në mënyrë adekuate kërkimin e përpiluar.

Mbrojtja e avokatëve argumentoi se parashtrimi rezultoi nga pakujdesia dhe jo nga keqbesim dhe nuk duhet të garantojë sanksione.

Ekspertët ligjorë dhe vëzhguesit kanë theksuar rreziqet e përdorimit të teknologjive të AI pa një kuptim të plotë të kufizimeve dhe rreziqeve të tyre të mundshme.

Rasti që përfshin Biseda GPT ilustron se si avokatët mund të mos e kuptojnë plotësisht se si funksionon sistemi i AI. Duke çuar në përfshirjen e informacionit imagjinar që duket realist.

Incidenti ka ngritur shqetësime për nevojën për ndërgjegjësim dhe kujdes. Kur përdorni teknologji premtuese të AI në fushën ligjore.

Dy avokatë që përballen me sanksione të mundshme ia atribuuan përfshirjen e kërkimit ligjor fiktiv në një dosje gjyqësore Biseda GPT, një chatbot i fuqizuar nga AI.

Gjithashtu avokatët i kërkuan falje gjyqtarit, duke shprehur keqkuptimet e tyre dhe mos verifikimin e saktësisë së citimeve.

Avokatët fajësojnë ChatGPT për përfshirjen e praktikës gjyqësore false, përballen me sanksione të mundshme