Air Canada perd son procès après que son chatbot ait halluciné de fausses politiques auprès d’un client
La compagnie aérienne a fait valoir que le chatbot lui-même était responsable. Le tribunal n’était pas d’accord.
L’argument d’Air Canada selon lequel son chatbot client alimenté par l’IA était seul responsable de ses propres actes n’a pas tenu devant un tribunal civil (Dieu merci), et maintenant la compagnie aérienne doit rembourser un client qui a reçu des informations incorrectes sur la compensation de son billet d’avion. .
L’incident de 2022 impliquait un client d’Air Canada, Jake Moffatt, et le chatbot de la compagnie aérienne, que Moffatt a utilisé pour obtenir des informations sur la façon d’être admissible au tarif de deuil pour un voyage de dernière minute pour assister à des funérailles. Le chatbot a expliqué que Moffat pouvait demander rétroactivement un remboursement de la différence entre le prix d’un billet régulier et le prix d’un billet de deuil, à condition que ce soit dans les 90 jours suivant l’achat.
Mais ce n’est pas du tout la politique de la compagnie aérienne. Selon le site Web d’Air Canada :
La politique d’Air Canada sur les voyages en cas de deuil offre une option à nos clients qui doivent voyager en raison du décès imminent ou du décès d’un membre de leur famille immédiate. Veuillez noter que notre politique en matière de deuil n’autorise pas le remboursement des voyages déjà effectués.
Lorsqu’Air Canada a refusé d’accorder le remboursement en raison d’un incident de désinformation, Moffat l’a poursuivi en justice. L’argument d’Air Canada contre le remboursement incluait des affirmations selon lesquelles elle n’était pas responsable des « propos trompeurs » de son chatbot. Air Canada a également fait valoir que le chatbot était une « entité juridique distincte » qui devrait être responsable de ses propres actions, affirmant que la compagnie aérienne n’était pas non plus responsable des informations fournies par « des agents, des préposés ou des représentants — y compris un chatbot ». Quoi que cela signifie.
« Bien qu’un chatbot ait une composante interactive, il ne constitue qu’une partie du site Web d’Air Canada », a répondu un membre du tribunal canadien. « Il devrait être évident pour Air Canada qu’elle est responsable de toutes les informations présentes sur son site Web. Peu importe que les informations proviennent d’une page statique ou d’un chatbot. »
Première affaire du genre, la décision d’un tribunal canadien pourrait avoir des implications à long terme pour d’autres entreprises ajoutant des « agents » basés sur l’IA ou l’apprentissage automatique à leurs offres de service client.