Rejoignez-nous
Divers

Air Canada perd son procès après que son chatbot ait halluciné de fausses politiques auprès d’un client

Pierre

Date de publication :

le

Air Canada perd son procès après que son chatbot ait halluciné de fausses politiques auprès d'un client

La compagnie aérienne a fait valoir que le chatbot lui-même était responsable. Le tribunal n’était pas d’accord.

L’argument d’Air Canada selon lequel son chatbot client alimenté par l’IA était seul responsable de ses propres actes n’a pas tenu devant un tribunal civil (Dieu merci), et maintenant la compagnie aérienne doit rembourser un client qui a reçu des informations incorrectes sur la compensation de son billet d’avion. .

L’incident de 2022 impliquait un client d’Air Canada, Jake Moffatt, et le chatbot de la compagnie aérienne, que Moffatt a utilisé pour obtenir des informations sur la façon d’être admissible au tarif de deuil pour un voyage de dernière minute pour assister à des funérailles. Le chatbot a expliqué que Moffat pouvait demander rétroactivement un remboursement de la différence entre le prix d’un billet régulier et le prix d’un billet de deuil, à condition que ce soit dans les 90 jours suivant l’achat.

Mais ce n’est pas du tout la politique de la compagnie aérienne. Selon le site Web d’Air Canada :

La politique d’Air Canada sur les voyages en cas de deuil offre une option à nos clients qui doivent voyager en raison du décès imminent ou du décès d’un membre de leur famille immédiate. Veuillez noter que notre politique en matière de deuil n’autorise pas le remboursement des voyages déjà effectués.

Lorsqu’Air Canada a refusé d’accorder le remboursement en raison d’un incident de désinformation, Moffat l’a poursuivi en justice. L’argument d’Air Canada contre le remboursement incluait des affirmations selon lesquelles elle n’était pas responsable des « propos trompeurs » de son chatbot. Air Canada a également fait valoir que le chatbot était une « entité juridique distincte » qui devrait être responsable de ses propres actions, affirmant que la compagnie aérienne n’était pas non plus responsable des informations fournies par « des agents, des préposés ou des représentants — y compris un chatbot ». Quoi que cela signifie.

« Bien qu’un chatbot ait une composante interactive, il ne constitue qu’une partie du site Web d’Air Canada », a répondu un membre du tribunal canadien. « Il devrait être évident pour Air Canada qu’elle est responsable de toutes les informations présentes sur son site Web. Peu importe que les informations proviennent d’une page statique ou d’un chatbot. »

Première affaire du genre, la décision d’un tribunal canadien pourrait avoir des implications à long terme pour d’autres entreprises ajoutant des « agents » basés sur l’IA ou l’apprentissage automatique à leurs offres de service client.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *