Gli avvocati incolpano ChatGPT per aver incluso una giurisprudenza fasulla, affrontando possibili sanzioni
Gli avvocati Steven A. Schwartz e Peter LoDuca si sono trovati in acqua calda quando una dichiarazione in tribunale che hanno fatto includeva riferimenti a casi giudiziari inesistenti.
Gli avvocati, chiedendo scusa a un giudice del tribunale federale di Manhattan, hanno attribuito l'errore a ChatGPT, un chatbot basato sull'intelligenza artificiale.
Schwartz usato ChatGPT per cercare precedenti legali a sostegno della causa del suo cliente contro Avianca, una compagnia aerea colombiana.
Tuttavia, il chatbot ha suggerito diversi casi che si sono rivelati inventati o che coinvolgono compagnie aeree inesistenti.
Schwartz ha spiegato al giudice che lo credeva erroneamente ChatGPT ha ottenuto i casi da una fonte segreta inaccessibile attraverso metodi di ricerca convenzionali.
Ha ammesso di aver fallito nella sua ricerca di follow-up per verificare l'accuratezza delle citazioni. Schwartz ha espresso sorpresa e rammarico, riconoscendo di non comprendere la capacità di ChatGPT di fabbricare casi.
Gli avvocati ora affrontano potenziali sanzioni per la loro inclusione di ricerche legali fittizie nel deposito in tribunale.
Potrebbe piacerti anche: ChatGPT – Cos'è e come funziona?
Gli avvocati citano ChatGPT come fonte di ricerche legali fittizie
Il giudice distrettuale degli Stati Uniti P. Kevin Castel ha espresso sia confusione che preoccupazione per l'affidamento degli avvocati ChatGPT e la loro incapacità di correggere tempestivamente le false citazioni legali.
Gli avvocati di Avianca e il tribunale li avevano avvertiti del problema, ma le citazioni non sono state rettificate.
Il giudice Castel ha confrontato Schwartz con uno specifico caso legale inventato con ChatGPT, evidenziandone la natura priva di senso.
Ha interrogato Schwartz sulla sua comprensione della presentazione confusa. A cui Schwartz ha offerto una spiegazione errata basata su diversi estratti di casi.
Schwartz e LoDuca si sono scusati sinceramente con il giudice, esprimendo rimorso personale e professionale per le loro azioni.
Schwartz ha dichiarato di aver imparato dall'errore e di aver implementato misure di salvaguardia per prevenire un evento simile in futuro.
LoDuca, che si fidava del lavoro di Schwartz, ha riconosciuto la sua incapacità di rivedere adeguatamente la ricerca compilata.
La difesa degli avvocati ha sostenuto che la presentazione derivava da negligenza piuttosto che da malafede e non dovrebbe giustificare sanzioni.
Esperti legali e osservatori hanno evidenziato i pericoli dell'utilizzo delle tecnologie di intelligenza artificiale senza una comprensione approfondita dei loro limiti e dei potenziali rischi.
Il caso che coinvolge ChatGPT illustra come gli avvocati potrebbero non comprendere appieno come funziona il sistema di intelligenza artificiale. Portando all'inclusione di informazioni fittizie che sembrano realistiche.
L'incidente ha sollevato preoccupazioni sulla necessità di consapevolezza e cautela. Quando si utilizzano tecnologie AI promettenti in campo legale.
Due avvocati che rischiano potenziali sanzioni hanno attribuito a ChatGPT, un chatbot basato sull'intelligenza artificiale.
Anche gli avvocati si sono scusati con il giudice, esprimendo le loro idee sbagliate e la mancata verifica dell'esattezza delle citazioni.