HOT

HOTI 10 migliori siti di traduzione online Leggi ora
HOTBroadcom cerca di vendere l'unità di accesso remoto per 3.8 miliardi di dollari Leggi ora
HOTNASCAR 2023: un emozionante viaggio nel motorsport americano Leggi ora
HOTIl succo di pomodoro fa bene? Leggi ora
HOTCome giocare a Roblox su un Chromebook scolastico Leggi ora
HOTChristine McGuinness brilla nelle riprese di San Valentino Leggi ora
HOTHumza Yousaf prevede una lotta serrata tra nazionalisti e conservatori Leggi ora
HOTCampagna di disinformazione su WeChat in Canada: la Cina ha preso di mira il deputato Michael Chong Leggi ora
HOTKanye West trova una connessione profonda con Bianca Censori: "Le cose non potrebbero andare meglio" Leggi ora
HOTFrankie Bridge Moda infuocata Leggi ora
HOMEPAGE
menù parafisici
PUBBLICITÀ :)
RICEVI NOTIZIE DAL MONDO O LOCALE! PLICKER TI OFFRE UN'OTTIMA ESPERIENZA DI CONTENUTI E UNA OTTIMA GUIDA. INIZIA ORA A SPERIMENTARE. SII FELICE.
Sam Bennett

Sam Bennett

11 giugno 2023

3 DK LEGGI

25 Leggi.

Gli avvocati incolpano ChatGPT per aver incluso una giurisprudenza fasulla, affrontando possibili sanzioni

Gli avvocati Steven A. Schwartz e Peter LoDuca si sono trovati in acqua calda quando una dichiarazione in tribunale che hanno fatto includeva riferimenti a casi giudiziari inesistenti.

Gli avvocati, chiedendo scusa a un giudice del tribunale federale di Manhattan, hanno attribuito l'errore a ChatGPT, un chatbot basato sull'intelligenza artificiale.

Schwartz usato ChatGPT per cercare precedenti legali a sostegno della causa del suo cliente contro Avianca, una compagnia aerea colombiana.

 Tuttavia, il chatbot ha suggerito diversi casi che si sono rivelati inventati o che coinvolgono compagnie aeree inesistenti.

Schwartz ha spiegato al giudice che lo credeva erroneamente ChatGPT ha ottenuto i casi da una fonte segreta inaccessibile attraverso metodi di ricerca convenzionali.

Ha ammesso di aver fallito nella sua ricerca di follow-up per verificare l'accuratezza delle citazioni. Schwartz ha espresso sorpresa e rammarico, riconoscendo di non comprendere la capacità di ChatGPT di fabbricare casi.

Gli avvocati ora affrontano potenziali sanzioni per la loro inclusione di ricerche legali fittizie nel deposito in tribunale.

Potrebbe piacerti anche: ChatGPT – Cos'è e come funziona?

ChatGPT

Il giudice distrettuale degli Stati Uniti P. Kevin Castel ha espresso sia confusione che preoccupazione per l'affidamento degli avvocati ChatGPT e la loro incapacità di correggere tempestivamente le false citazioni legali.

Gli avvocati di Avianca e il tribunale li avevano avvertiti del problema, ma le citazioni non sono state rettificate.

Il giudice Castel ha confrontato Schwartz con uno specifico caso legale inventato con ChatGPT, evidenziandone la natura priva di senso.

Ha interrogato Schwartz sulla sua comprensione della presentazione confusa. A cui Schwartz ha offerto una spiegazione errata basata su diversi estratti di casi.

Schwartz e LoDuca si sono scusati sinceramente con il giudice, esprimendo rimorso personale e professionale per le loro azioni.

Schwartz ha dichiarato di aver imparato dall'errore e di aver implementato misure di salvaguardia per prevenire un evento simile in futuro.

LoDuca, che si fidava del lavoro di Schwartz, ha riconosciuto la sua incapacità di rivedere adeguatamente la ricerca compilata.

La difesa degli avvocati ha sostenuto che la presentazione derivava da negligenza piuttosto che da malafede e non dovrebbe giustificare sanzioni.

Esperti legali e osservatori hanno evidenziato i pericoli dell'utilizzo delle tecnologie di intelligenza artificiale senza una comprensione approfondita dei loro limiti e dei potenziali rischi.

Il caso che coinvolge ChatGPT illustra come gli avvocati potrebbero non comprendere appieno come funziona il sistema di intelligenza artificiale. Portando all'inclusione di informazioni fittizie che sembrano realistiche.

L'incidente ha sollevato preoccupazioni sulla necessità di consapevolezza e cautela. Quando si utilizzano tecnologie AI promettenti in campo legale.

Due avvocati che rischiano potenziali sanzioni hanno attribuito a ChatGPT, un chatbot basato sull'intelligenza artificiale.

Anche gli avvocati si sono scusati con il giudice, esprimendo le loro idee sbagliate e la mancata verifica dell'esattezza delle citazioni.

Gli avvocati incolpano ChatGPT per aver incluso una giurisprudenza fasulla, affrontando possibili sanzioni