Comment l’analyse sémantique révolutionne la gestion de la relation client

Comment l’analyse sémantique révolutionne la gestion de la relation client

Publié le: 24 Novembre 2020
Auteur: Taoufik Massoussi - Product Manager & Head of AI

L'objectif ultime : expliciter les mécanismes du cerveau qui sous-tendent la création et la compréhension des données langagières

L’analyse sémantique est devenue un "buzz word" dans le domaine de la relation client. Mais que se cache-t-il exactement derrière ce terme ? Quels en sont les champs d’applications ? Qu’en attendre dans les prochaines années ? 

Taoufik Massoussi, Product manager de la solution vecko de Enghouse Interactive, nous partage son point de vue.

 

Qu’est-ce que l’analyse sémantique ? 

Il y a plusieurs termes qui sont utilisés pour décrire plus ou moins le même concept.  « Analyse sémantique » est celui qui s’est imposé et que l’on retrouve le plus fréquemment chez les professionnels du secteur en France. Dans le marché anglo-saxon, on parle de Text Analytics.

L’analyse sémantique des données textuelles appartient à la discipline connue sous le nom de TAL, ou TALN, pour « Traitement Automatique des Langues Naturelles » (et non « du langage naturel », le français, contrairement à l’anglais, a deux termes pour distinguer les langues et le langage). Par « traitement », on renvoie ici à deux grands champs applicatifs : la reconnaissance et la génération. La traduction est l’application la plus complète, et sans doute la plus compliquée, car elle implique à la fois la reconnaissance du texte dans la langue à traduire et la génération du nouveau texte dans la langue de traduction.

L’ambition ultime est d’expliciter les mécanismes du cerveau humain qui sous-tendent la création et la compréhension des données langagières afin de les modéliser et de les intégrer dans des applications qui seront alors capables de reproduire le fonctionnement du cerveau.

 

Quelles sont les avancées majeures réalisées ces dernières années en termes d'analyse sémantique ? 

En étant un peu provocateur, je dirais qu’en terme de recherche fondamentale, on n’est pas très avancé.  La raison tient au fait que, contrairement à beaucoup de sciences, celle qui étudie les langues et qu’on appelle la linguistique avec son pendant applicatif le TAL, n’a pas connu l’étape d’observation et de collecte d’envergure, comme l’a fait par exemple Tycho Brahé pendant toute une vie dans le domaine de l’astronomie avant que Kepler ne formule des lois qui portent son nom. On ne sait donc que très peu de choses sur le fonctionnement des langues, et les seuls modèles complets à avoir réellement décrit tous les niveaux (phonologique, morphologique, syntaxique, sémantique et stylistique) sont ceux d’Igor Melcuk.

La question initiale est la suivante : Comment se fait-il qu’un enfant comprenne une langue et produise des phrases correctes sans les avoir jamais entendues et sans jamais avoir suivi un seul cours de grammaire ? Ce sont des phénomènes que l’on reste incapable d’expliquer précisément aujourd’hui. 

En revanche, un virage majeur a été opéré dans la façon de procéder. Jusqu’à il y a une dizaine d’années, la recherche se concentrait sur la création de règles de compréhension et de génération, pour simuler les mécanismes de cette boite noire qu’est le cerveau. 

C’était une approche finalement assez théorique que l’on a abandonnée pour une approche plus pratique basée sur l’exploitation massive des données avec le machine learning. Il s’agit de « nourrir » la machine avec des données pour qu’elle apprenne par elle-même. 90% du travail consiste non plus à concevoir des règles mais à préparer et organiser des données pour que la machine dispose non seulement d’un grand volume mais également d’une grande variété de données afin de parfaire son apprentissage. Cette approche est rendue possible par les énormes capacités de calcul dont on dispose à présent, et notamment celles des géants de l’industrie. 

La deuxième avancée majeure concerne un champ applicatif qui intéresse particulièrement les entreprises. On est entré dans une ère où on ne se contente plus d’analyser pour expliquer, on analyse pour prédire. On fait là aussi appel au machine learning afin de comparer les données non structurées (des verbatims de clients par exemple) à des données structurées qui sont stockées dans les systèmes d’information (un historique d’achat) dans le but d’expliquer des comportements à venir. 

 

Quelles sont les applications de l'analyse sémantique dans la relation client ?

Celle qui m’intéresse au premier plan dans le cadre du développement de notre solution vecko, c’est l’analyse de la voix du client. Une solution telle que la nôtre permet aujourd’hui de convertir les données non structurées issues d’enquêtes de satisfaction ou d’interactions avec les agents en plans d'actions concrets qui permettent aux organisations et à tous leurs employés d'améliorer en continu l'expérience sur tout le parcours client.  

Un autre champ d’application est le domaine du selfcare. L’objectif est de traiter sans intervention humaine les demandes les plus simples qui arrivent au service client. Selon les estimations habituelles, ce sont environ 1/3 des requêtes qui pourraient être gérées de la sorte. Ainsi, dans une FAQ dynamique intelligente, on peut interpréter une question posée en langue naturelle par le client et lui proposer automatiquement une réponse adaptée. Les chatbots poussent cette approche un peu plus loin en proposant une interface qui cherche en plus à simuler une conversation avec un agent. Mais, dans les faits, il n’y a finalement aujourd’hui pas de « vrais » chatbots qui seraient capables de remplacer un agent et tenir une conversation sur n’importe quel sujet. Le champ des possibles est encore trop vaste et les chatbots se concentrent sur quelques transactions simples telles que commander une pizza ou réserver un billet de train. Dans ces cas de figure, la mécanique fonctionne parfaitement et offre une expérience client satisfaisante mais on reste encore très loin de la promesse marketing initiale. 

Le troisième champ d’application est l’optimisation de l’efficacité du centre de contact. On est aujourd’hui capable d’analyser toutes les données non structurées qui transitent par le centre de contact (conversations téléphoniques et vidéo, chat, emails, réseaux sociaux…). Beaucoup d’acteurs savent techniquement très bien le faire. La seule véritable difficulté qui demeure est la capacité à industrialiser la démarche à grande échelle et à un coût raisonnable. Cela permet en tout cas déjà de nombreuses applications :

  • On peut router les demandes écrites aux agents les plus adaptés en analysant leur contenu
  • On peut « augmenter » les agents, c’est-à-dire les aider à répondre plus rapidement en les aidant à comprendre le message et en leur proposant des réponses types issues d’une base de connaissance
  • On peut générer automatiquement des modèles pour ces réponses types qui peuvent ensuite être adaptés et personnalisés
  • En termes de contrôle qualité, on peut mettre en place un monitoring des interactions beaucoup plus exhaustif et porter à l’attention du superviseur toutes les conversations qui le méritent
  • On peut détecter en temps réel un agent en difficulté et alerter le superviseur pour qu’il se joigne à la discussion
  • On peut mettre en place des « cookies vocaux » pour signaler des profils de clients sur lesquels avoir ensuite des actions de suivi particulières (vente de produit additionnel, campagne de rétention…) 

 

Qu’attendre de l’analyse sémantique dans les années à venir ? 

Le machine learning sur les données non structurées offre un potentiel absolument incroyable. Les algorithmes fonctionnent vraiment très bien et le champ des possibles s’accroît tous les jours. 

L’une des choses que j’ai envie de mentionner ici concerne les programmes voix du client. La frustration qu'ils suscitent aujourd’hui provient du fait que, quels que soient les pays ou les organisations, on constate généralement que seulement environ 10% des clients répondent aux enquêtes. C’est suffisamment représentatif pour identifier les points forts et les axes d’amélioration afin de bâtir un plan d’action général, mais cela ne permet pas d’identifier parmi les 90% des clients pour lesquels on n’a pas de données non structurées, lesquels sont potentiellement mécontents et peuvent être des détracteurs. L’enjeu qui se dessine est donc de croiser les données non structurées issues des 10% qui répondent avec les données structurées dont on dispose sur les 90% qui ne répondent pas afin de prédire et d’anticiper leurs comportements individuels. Ce sera une véritable révolution pour les programmes de fidélisation.

 

Pour en savoir plus, nous vous invitons à télécharger notre livre blanc "Voix du client : passez à l'action grâce à l'analyse sémantique" ou à consulter notre infographie sur l'utilisation de l'IA dans la relation client :

Tags : Analyse sémantique, TAL, Traitement automatique du langage naturel, traitement automatique des langues, Relation Client, voix du client, IA, AI, intelligence artificielle, machine learning, centre de contact, fidélisation, selfcare, self-service
Catégories: Intelligence Artificielle

Ces articles pourraient vous intéresser