Les chatbots savent qu’ils ne savent pas !

« Tout ce que je sais, c’est que je ne sais rien ! »


Cette maxime très connue de Socrate, incite l’homme à reconnaître son ignorance s’il souhaite s’engager dans une quête de savoir. Le philosophe promeut ainsi l’adoption d’une posture de recherche humble qui suppose une ouverture d’esprit, nécessaire si l’on souhaite s’améliorer. Aujourd’hui, cette maxime pourrait être remplacée par « Désolé je n’ai pas encore de réponse à cette question », version moderne de l’adage, scandée à tout va par les agents conversationnels sur le net.

Effectivement, les chatbots savent qu’ils ne savent pas et, avantage d’être un robot, ils n’ont aucune honte à le dire ! Ils le confessent même parfois un peu trop fréquemment au goût de certains utilisateurs. Pourtant, ces messages sont un vrai signe encourageant.

Base de connaissance : la clé du savoir des chatbots

Un chatbot est conçu pour effectuer une ou plusieurs tâches précises, sur un périmètre défini. En conséquence, il doit être capable de dire quand une question sort de son champ de compétences.

Les agents conversationnels les plus avancés utilisent un moteur de traitement du langage naturel qui analyse la question de l’utilisateur et son contexte. Puis, chaque question est étudiée et déchiffrée pour être rattachée à une question de la base de connaissances. Pour effectuer ce rattachement, le chatbot identifie le type de la question (Définition, Sujet, Manière, Objet, Lieu, etc.), et le pivot de la requête. Par exemple, si l’utilisateur pose la question « Comment ajouter un contact supplémentaire ? », le pivot de la requête est « ajouter ». Si le chatbot ne trouve pas la notion d’ajout dans sa base de connaissances, il comprend qu’il ne peut pas répondre. Il dit donc à l’utilisateur qu’il ne sait pas.

Autre exemple, si l’utilisateur demande « Quel est le numéro de téléphone du support ? », le bot va chercher un numéro de téléphone dans sa base de connaissances. S’il n’en trouve aucun, il déclare qu’il ne connaît pas la réponse.

En d’autres termes, ce n’est pas (toujours) parce qu’un chatbot ne donne pas l’information demandée qu’il fonctionne mal ou qu’il ne comprend pas la question. La plupart du temps, c’est simplement que la réponse ne figure pas dans sa base de connaissances ou qu’elle a été mal posée (phrase incorrecte, très mal orthographiée, oubli de mots…).

Le souci pour l’utilisateur, c’est qu’il n’a aucun moyen de savoir si c’est la connaissance du chatbot qui est insuffisante, si c’est sa requête qui est mal formulée ou si c’est son fonctionnement qui fait défaut. Dans les trois cas, cette non-réponse génère de la frustration. Pourtant, il faut bien considérer le fait qu’il vaut mieux que le chatbot réponde qu’il ne sait pas plutôt qu’il ne réponde pas du tout, ou qu’il réponde mal.

Chatbots : 3 raisons pour lesquelles sa méconnaissance est importante

#1 : Parfois, c’est la meilleure réponse à fournir ! Les données enregistrées par Siri, Alexa, Cortana ou même Google Assistant révèlent que les utilisateurs adorent poser des questions pièges, insultantes voire même déplacées à ces assistants digitaux. Les chatbots ne font pas exception, car il est tentant pour l’utilisateur de vouloir interroger le robot sur des sujets triviaux afin de voir sa réaction. Une réponse codifiée permet souvent de calmer les ardeurs de l’utilisateur et de recentrer la discussion sur un sujet mieux maîtrisé par le bot.

#2 : Chaque question pour laquelle le chatbot n’a pas trouvé de réponse est enregistrée et remontée aux Knowledge Managers via un outil d’Analytics dans le back-office du bot. Si c’est une question pertinente fréquemment posée, elle sera vite prise en charge par l’équipe qui enrichira la documentation ou rédigera la réponse adaptée afin de compléter la base de connaissances du robot.

#3 : Les chatbots les plus aboutis peuvent adopter plusieurs réactions différentes lorsqu’ils ne connaissent pas la réponse à la question posée. En premier lieu, ils peuvent demander de reformuler la question, ce qui peut s’avérer adéquat et payant si la première formulation était erronée ou incomplète. Ils peuvent également suggérer à l’utilisateur des questions qu’ils jugent sémantiquement proches de celle posée. Enfin, ils peuvent proposer d’effectuer une escalade vers un opérateur humain. Cette escalade peut se faire de deux manières différentes : soit par l’ouverture d’un ticket transmis à un conseiller du service support, soit par une escalade sans couture. Dans ce cas, le conseiller Helpdesk prend directement la main dans la fenêtre de conversation pour donner satisfaction à l’utilisateur, sans que celui-ci n’ait à réitérer sa demande.

Cette fonctionnalité de l’escalade vers l’humain est essentielle et elle ne peut se faire que si le chatbot est « conscient » qu’il n’a pas la réponse adéquate. Il fait alors gagner du temps à l’utilisateur en mobilisant un autre interlocuteur capable de compenser ses lacunes. Après son implémentation, il faut considérer le chatbot comme un enfant en phase d’apprentissage. Il ne peut apprendre que sur ce qu’il est conscient de ne pas savoir. C’est cette connaissance de ses capacités qui va lui permettre de s’améliorer et d’engranger de nouvelles informations afin de devenir plus performant.

La prochaine fois que vous parlerez avec un chatbot, tâchez donc de l’interroger sur son périmètre d’action. S’il ne sait pas vous répondre… réjouissez-vous, vous allez le rendre meilleur !

Par Sophie MULLER chez Synapse Développement

Nota Bene : les propos tenus dans cette rubrique sont ceux de leur auteur.
Finyear publie ces articles afin d'offrir une pluralité d'Opinions à ses lecteurs.

Mercredi 8 Février 2023


Articles similaires