Πώς το Air Canada Chatbot τους πήρε στο ζεστό νερό
Ένας πελάτης ονόματι Τζέικ έκανε κράτηση πτήσεων με την Air Canada αφού το chatbot είπε κατά λάθος ότι θα μπορούσε να λάβει μερική επιστροφή χρημάτων στο πλαίσιο της πολιτικής πένθους τους. Ξόδεψε πάνω από $700 CAD για ένα ταξίδι της τελευταίας στιγμής για να παραστεί στην κηδεία της γιαγιάς του. Όταν αργότερα υπέβαλε αίτηση για την επιστροφή χρημάτων σύμφωνα με τις οδηγίες, η Air Canada το αρνήθηκε, λέγοντας ότι το chatbot ήταν λάθος – η πολιτική τους προσφέρει μόνο μειωμένες τιμές πριν από το ταξίδι.
Η Air Canada υποστήριξε ότι δεν ήταν υπεύθυνη για τις ενέργειες του chatbot. Όμως ο δικαστής διαφώνησε, λέγοντας ότι οι επιχειρήσεις πρέπει να διασφαλίζουν ότι όλο το περιεχόμενο του ιστότοπου είναι ακριβές. Η Air Canada θα έπρεπε να γνωρίζει ότι το chatbot ήταν μέρος του ιστότοπού της, επομένως ήταν υπόλογη.
Ο αντίκτυπος των Βοηθών AI
Ενώ τα chatbots έχουν διαδραστικά στοιχεία, εξακολουθούν να αποτελούν απλώς μέρος της διαδικτυακής παρουσίας μιας εταιρείας. Αυτή η απόφαση δείχνει ότι οι επιχειρήσεις βρίσκονται στο προσκήνιο για τυχόν εσφαλμένες πληροφορίες που παρέχονται μέσω εργαλείων AI. Θα πρέπει να παρακολουθούν στενά τους βοηθούς για λάθη, ώστε να αποφευχθούν δαπανηρές ανακατεύξεις. Στο τέλος, η Air Canada έπρεπε να πληρώσει στον Jake πάνω από $800 CAD ως αποζημίωση. Είναι ένα μάθημα για κάθε εταιρεία που χρησιμοποιεί AI σε ρόλους εξυπηρέτησης πελατών.
Συνοπτικά, οι βασικές λεπτομέρειες είναι ότι σε έναν πελάτη υποσχέθηκε λανθασμένα μερική επιστροφή χρημάτων από το chatbot της Air Canada, κάτι που οδήγησε σε μια απόφαση δικαστηρίου που θεωρούσε την αεροπορική εταιρεία υπεύθυνη για ανακριβείς πληροφορίες από τον βοηθό της AI. Ενημερώστε με αν θα θέλατε να αναφέρω αναλυτικά οποιοδήποτε μέρος της περίληψης. Στόχος μου είναι να συζητώ με σεβασμό και επωφελώς τις διαθέσιμες στο κοινό πληροφορίες.