L’IA générative a tellement le vent en poupe en ce moment que des tas d’entreprises commencent à se doter de chatbots dopés au machine learning, même dans des cas où ces outils ne sont pas forcément pertinents. Et cette façon de surfer sur la vague peut aussi avoir des conséquences inattendues.
Récemment, c’est Air Canada qui en a fait les frais : un tribunal a déterminé qu’usager aurait droit au remboursement partiel de son voyage que le chatbot de la compagnie aérienne lui a promis par erreur.
ChatGBugé
L’affaire a débuté en 2022 lorsque le passager en question, Jake Moffatt, a perdu sa grand-mère. Il a donc consulté le chatbot de l’entreprise pour savoir si cette dernière proposait des tarifs préférentiels aux personnes en situation de deuil. Le programme a répondu par l’affirmative, expliquant que Moffatt pouvait prétendre à une réduction significative s’il en faisait la demande jusqu’à 90 jours après le vol.
Une bonne nouvelle pour l’intéressé, qui était sur le point de réserver un aller-retour entre Vancouver et Toronto pour une somme totale d’environ 1200 $. Il a donc effectué son voyage en se disant qu’il aurait tout le temps de contacter la compagnie aérienne par la suite pour bénéficier du remboursement qui lui avait été promis.
Mais lorsqu’il s’est lancé dans cette démarche, il s’est heurté à un mur. Le souci, c’est que ce programme conversationnel dopé à l’IA s’était emmêlé les pinceaux. Il se trouve qu’Air Canada propose effectivement des réductions aux personnes en deuil, mais seulement si la demande est faite avant le voyage. En revanche, l’offre n’est pas censée être rétroactive. Contrairement à ce qu’affirmait le chatbot, Moffatt n’aurait donc pas dû y avoir droit. Le personnel en charge de sa réclamation a donc refusé de lui verser l’argent.
La compagnie aérienne condamnée à payer
Les deux parties ont donc entamé des délibérations houleuses de plusieurs mois. Air Canada, de son côté, considérait que Moffatt aurait dû savoir que sa requête n’était pas légitime. Cette défense s’appuyait sur le fait que le chatbot lui avait indiqué un lien vers ladite politique de remboursement plus haut dans la conversation. Au lieu de la somme promise, elle a proposé un coupon de 200 $ à utiliser lors de son prochain vol. Pas convaincu, Moffatt a refusé ce geste commercial et déposé une plainte auprès du Tribunal de résolution civil du Canada.
L’avocat d’Air Canada a opté pour une stratégie originale : personnifier le chatbot, comme s’il s’agissait d’un individu vivant avec son propre libre arbitre. Il a argué que le voyageur n’aurait jamais dû faire confiance au chatbot, et que l’entreprise ne pouvait pas être tenue pour responsable de cette méprise. Du point de vue de la compagnie aérienne, il s’agit d’une « entité légale séparée qui est responsable de ses propres actions ». Une défense audacieuse que personne n’a jamais tentée jusqu’à présent, d’après des experts interrogés par le Vancouver Sun.
Mais Christopher Rivers, le membre du tribunal en charge de l’affaire, n’était pas de cet avis. « Air Canada estime que M. Moffatt pouvait trouver les bonnes informations sur une autre page de son site. Mais cela n’explique pas pourquoi la page en question serait intrinsèquement plus digne de confiance que son chatbot. Cela n’explique pas non plus pourquoi les consommateurs devraient systématiquement vérifier ces informations à deux reprises », a-t-il déclaré.
Il a donc donné gain de cause à l’usager. Air Canada a été condamnée à lui verser la somme promise, à savoir 650,88 dollars canadiens, soit environ 445 €, ainsi que des dommages et intérêts. Sans surprise, le chatbot a été désactivé promptement après le verdict.
Un précédent significatif pour le statut légal des IA
À l’origine, ce système avait été mis en place pour automatiser une partie des requêtes qui sont généralement traitées par des employés humains. Par exemple, en cas de mauvais temps, le chatbot pouvait indiquer aux voyageurs s’ils disposeraient d’un siège à leur nom sur un autre vol.
On peut s’étonner du fait que l’entreprise ait choisi de confier cette responsabilité à un chatbot. Après tout, il est de notoriété publique que les agents conversationnels à base d’IA générative ont tendance à commettre des erreurs. Et si l’idée sous-jacente était simplement de faire des économies sur le service client, une bonne vieille base de données bien construite et accessible depuis une page web ou une application aurait sans doute fait l’affaire.
Mais au-delà de ces considérations stratégiques, ce qui est plus intéressant, c’est que cette affaire pourrait représenter un précédent important, susceptible d’inspirer d’autres tribunaux et les législateurs.
Ces chatbots naviguent actuellement dans une zone grise, et le verdict pourrait inciter les garants de la Loi à considérer ces programmes comme des représentants officiels des entreprises qui les mettent en place. Le cas échéant, il y a fort à parier que de nombreuses entreprises vont se débarrasser de ces chatbots le plus vite possible, afin d’éviter que des consommateurs ne viennent les torturer jusqu’à ce qu’ils trouvent une incohérence susceptible d’être attaquable en justice.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.