Οι δικηγόροι κατηγορούν την ChatGPT για συμπερίληψη ψευδούς νομολογίας, αντιμετωπίζουν πιθανές κυρώσεις
Οι δικηγόροι Steven A. Schwartz και Peter LoDuca βρέθηκαν σε ζεστό νερό όταν μια δικαστική κατάθεση που έκαναν περιελάμβανε αναφορές σε ανύπαρκτες δικαστικές υποθέσεις.
Οι δικηγόροι, ζητώντας συγγνώμη από έναν δικαστή στο ομοσπονδιακό δικαστήριο του Μανχάταν, απέδωσαν το σφάλμα στο ChatGPT, ένα chatbot που λειτουργεί με τεχνητή νοημοσύνη.
Χρησιμοποιείται ο Schwartz ChatGPT να αναζητήσει νομικά προηγούμενα που υποστηρίζουν την υπόθεση του πελάτη του κατά της Avianca, μιας κολομβιανής αεροπορικής εταιρείας.
Ωστόσο, το chatbot πρότεινε αρκετές υποθέσεις που αποδείχθηκε ότι ήταν κατασκευασμένες ή αφορούσαν ανύπαρκτες αεροπορικές εταιρείες.
Ο Schwartz εξήγησε στον δικαστή ότι το πίστεψε κατά λάθος ChatGPT έλαβε τις περιπτώσεις από μια άγνωστη πηγή απρόσιτη μέσω συμβατικών μεθόδων έρευνας.
Παραδέχτηκε ότι απέτυχε στην έρευνά του να επαληθεύσει την ακρίβεια των παραπομπών. Ο Schwartz εξέφρασε έκπληξη και λύπη, αναγνωρίζοντας ότι δεν κατανοούσε την ικανότητα του ChatGPT να κατασκευάζει υποθέσεις.
Οι δικηγόροι αντιμετωπίζουν πλέον πιθανές κυρώσεις για τη συμπερίληψή τους εικονικής νομικής έρευνας στη δικαστική κατάθεση.
Μπορεί να ήθελε επίσης: ChatGPT – Τι είναι και πώς λειτουργεί?
Οι δικηγόροι αναφέρουν το ChatGPT ως πηγή εικονικής νομικής έρευνας
Ο περιφερειακός δικαστής των ΗΠΑ P. Kevin Castel εξέφρασε τόσο σύγχυση όσο και ανησυχία για την εξάρτηση των δικηγόρων ChatGPT και την αποτυχία τους να διορθώσουν έγκαιρα τις ψευδείς νομικές αναφορές.
Οι δικηγόροι της Avianca και το δικαστήριο τους είχαν ειδοποιήσει για το πρόβλημα, ωστόσο οι αναφορές δεν διορθώθηκαν.
Ο δικαστής Castel αντιμετώπισε τον Schwartz με μια συγκεκριμένη επινοημένη νομική υπόθεση με το ChatGPT, τονίζοντας τον παράλογο χαρακτήρα του.
Ρώτησε τον Σβαρτς για την κατανόηση της μπερδεμένης παρουσίασης. Στο οποίο ο Schwartz προσέφερε μια εσφαλμένη εξήγηση βασισμένη σε διαφορετικά αποσπάσματα περιπτώσεων.
Οι Schwartz και LoDuca ζήτησαν ειλικρινή συγγνώμη από τον δικαστή, εκφράζοντας προσωπική και επαγγελματική μεταμέλεια για τις πράξεις τους.
Ο Schwartz δήλωσε ότι είχε μάθει από τη γκάφα και εφάρμοσε διασφαλίσεις για να αποτρέψει ένα παρόμοιο περιστατικό στο μέλλον.
Ο LoDuca, ο οποίος εμπιστευόταν το έργο του Schwartz, αναγνώρισε την αποτυχία του να αναθεωρήσει επαρκώς τη συγκεντρωμένη έρευνα.
Η υπεράσπιση των δικηγόρων υποστήριξε ότι η υποβολή προήλθε από απροσεξία και όχι από κακή πίστη και δεν θα έπρεπε να δικαιολογεί κυρώσεις.
Νομικοί εμπειρογνώμονες και παρατηρητές έχουν επισημάνει τους κινδύνους από τη χρήση τεχνολογιών τεχνητής νοημοσύνης χωρίς διεξοδική κατανόηση των περιορισμών και των πιθανών κινδύνων τους.
Η υπόθεση που αφορά ChatGPT δείχνει πώς οι δικηγόροι μπορεί να μην κατανοούν πλήρως πώς λειτουργεί το σύστημα AI. Οδηγεί στη συμπερίληψη φανταστικών πληροφοριών που φαίνονται ρεαλιστικές.
Το περιστατικό έχει εγείρει ανησυχίες σχετικά με την ανάγκη ευαισθητοποίησης και προσοχής. Κατά τη χρήση πολλά υποσχόμενων τεχνολογιών τεχνητής νοημοσύνης στον νομικό τομέα.
Δύο δικηγόροι που αντιμετωπίζουν πιθανές κυρώσεις απέδωσαν τη συμπερίληψη εικονικής νομικής έρευνας σε δικαστική κατάθεση ChatGPT, ένα chatbot με τεχνητή νοημοσύνη.
Επίσης οι δικηγόροι ζήτησαν συγγνώμη από τον δικαστή, εκφράζοντας τις εσφαλμένες αντιλήψεις τους και την αδυναμία επαλήθευσης της ακρίβειας των παραπομπών.