Dans quels cas les agents IA peuvent satisfaire les attentes des clients? Quelle sont les bonnes approches, aujourd’hui et demain?

On observe que les Services Clients (internalisés et externalisés -BPO) affichent souvent des études démontrant que « les clients préfèrent parler à l’humain plutôt qu’interagir avec des robots d’IA », mais ces Services Clients proposent pourtant de plus en plus de services IA.

Les clients préfèrent effectivement interagir avec des humains, mais ils achètent pourtant des produits et des services à des vendeurs qui s’efforcent de réduire le coût humain en proposant des solutions de support IA.


Mais confier la totalité des interactions clients à des agents AI est il vraiment économique? Est-ce que le client sort vraiment gagnant, a-t-il vraiment le choix?

On comprend facilement qu’il est difficile de convaincre un client de payer un premium à l’achat pour pouvoir interagir avec un humain en cas de besoin de support éventuel,

Pour rester compétitif, il convient de trouver des moyens de rendre le fonctionnement du Service Client moins onéreux sans en dégrader la qualité en s’appuyant d’outils utilisant l’IA afin de booster la productivité des agents humains.

Quelles sont les limites à envisager?


Dans le cas d’interactions de base, simples, répétitives et n’impliquant pas de risques majeurs tels que:

  • Risques financiers
  • Dégradation de réputation
  • Risque de non-conformité
  • Risques légaux  

Ces interactions peuvent être gérée par des agents IA.


Par contre lors d’interactions nécessitant:

  • De l’empathie afin de réduire le stress du client.
  • De clarifier la description du problème faite par le client.  
  • De résoudre des problèmes complexes multi-sources.
  • D’envisager diverses combinaisons de solutions avec des choix à faire
  • Une compréhension des conformités en jeux (financières, liées à la santé…) avec un impact critique pour le client et l’entreprise, en terme de sûreté, sécurité…

Alors les humains peuvent interagir de manière beaucoup moins coûteuse et efficace.


Quelles contraintes pour rendre l’humain performant?

Restons toutefois conscient que cette efficacité à coût maîtrisé impose de mettre à disposition des agents des outils performants:

  • Accès aux processus à jour.
  • Accès aux références techniques.
  • Accès aux méthodes de diagnostiques complexes (arbres de décisions…).
  • Protocoles d’escalade.
  • Protocoles de compensation clairs et fluides.
  • Contribution à l’amélioration quotidienne de ces outils en fournissant des commentaires significatifs.

Quand l’IA fonctionne… Et quand ce n’est pas le cas

Soyons justes : il y a des cas où l’IA apporte une réelle valeur aux Services Clients.

  • Réponses instantanées aux questions simples et non-anbigües fréquemment posées,
  • disponibilité 24h/24 et 7j/7.
  • capacité à gérer les pics de demande.
  • demandes en plusieurs langues.

Pour les tâches de routine bien définies, l’automatisation peut être vraiment utile.

Le problème se pose lorsque vous essayez d’appliquer la même logique à l’ensemble du spectre du service client. Des situations exceptionnelles, des problèmes complexes, des clients frustrés ou des plaintes sensibles nécessitent de l’empathie, de la flexibilité et un jugement humain – précisément ce que l’IA  ne peut pas toujours offrir aujourd’hui.

Un rapport de McKinsey & Co. de mars 2025 a montré que 71 % des entreprises utilisent désormais l’IA générative dans au moins une fonction commerciale, mais que l’adoption est nettement plus faible dans les secteurs hautement réglementés : 63 % dans le secteur de la santé et 65 % dans les services financiers, précisément là où les erreurs ont le plus d’impact.


Une proposition d’équilibre

Peut-être que la question ne devrait pas être « IA oui ou non ? », mais « combien d’IA et où ? ». Une approche hybride intelligente serait :

  • Utiliser l’IA pour filtrer et catégoriser les requêtes initiales, en reconnaissant leurs limites
  • Automatiser véritablement les tâches simples et répétitives où les erreurs ont peu d’impacts.
  • Mettre en place des systèmes de vérification humaine pour les réponses critiques (en gardant les humains dans la boucle, comme recommandé par Red Hat)
  • Faciliter l’accès rapide (instantanée ?) à un humain lorsque la situation l’exige ou lorsque l’IA exprime une incertitude (sachant qu’un des problèmes des agents IA est d’admettre qu’ils ne sont pas en mesure de répondre correctement…voir nos publications précédentes)
  • Inclure des avertissements clairs indiquant quand les informations sont générées par l’IA
  • Former des agents humains à travailler avec des outils d’IA qui les responsabilisent, et non les remplacent
  • Mesurer le succès du point de vue du client au premier plan, et pas celui de l’entreprise, le succès pour le client entraîne forcément celui de l’entreprise. L’inverse est rarement vrai…
  • Etre transparent sur le moment où les clients interagissent avec l’IA et quand avec les humains.
  • Faire confiance à l’esprit critique de vos équipes en les impliquant directement dans l’amélioration des solutions apportées aux clients.

On peut résumer cette longue liste en préconisant de mettre à disposition de vos équipes des outils qui utilisent l’IA et gèrent la connaissance de votre entreprise tout en l’améliorant avec une plateforme de Gestion de Connaissance – KMS (Knowledge Management Systems)


La question qui dérange

En fin de compte, une réflexion délicate demeure : les entreprises adoptent-elles l’IA dans le service client parce que c’est la meilleure solution pour leurs utilisateurs, ou parce que cela semble la solution pour protéger la profitabilité ? S’agit-il d’une véritable innovation ou d’une optimisation déguisée en modernité ?

Et le font-ils en toute connaissance de cause des limites techniques réelles de ces systèmes ? Les données suggèrent que non. Quand GPT-4 et GPT-4 Turbo, les modèles les plus précis disponibles, hallucinent 3 % du temps ; lorsque des modèles de raisonnement avancés tels que O3 et O4-mini hallucinent respectivement 33 % et 48 % du temps ; lorsque le modèle le plus grand et le plus cher d’OpenAI doit être retiré après seulement 4 mois ; Lorsque les tribunaux commencent à tenir les entreprises responsables des fausses informations fournies par leurs chatbots, tout cela suggère que l’industrie tente de courir avant d’apprendre à marcher.

La réponse varie probablement d’une entreprise à l’autre, mais le silence assourdissant sur les études de satisfaction client, sur les taux d’abandon dans les systèmes automatisés, sur le nombre d’utilisateurs cherchant désespérément l’option « parler à un humain » et sur les défaillances techniques réelles et documentées des LLM, suggère que nous ne nous posons peut-être pas les bonnes questions.

La technologie est un outil, pas un objectif. Et un outil n’est utile que s’il résout les problèmes réels des vraies personnes qui l’utilisent, et s’il fonctionne de manière fiable dans le monde réel, et pas seulement dans les benchmarks de laboratoire.

Tant que les décisions concernant l’IA dans le service client seront prises dans les salles de conseil en examinant des feuilles de calcul et des présentations commerciales de fournisseurs de technologie, plutôt qu’en discutant avec de vrais clients et avec une compréhension honnête des limites techniques documentées, nous continuerons à voir des mises en œuvre qui privilégient l’efficacité de l’entreprise plutôt que l’expérience humaine.

Et peut-être plus inquiétant encore, nous continuerons à voir des entreprises surprises lorsque leurs systèmes d’IA échouent, lorsque leurs clients deviennent frustrés et lorsqu’elles découvrent que les économies à court terme peuvent être très coûteuses lorsqu’elles se mesurent à la perte de réputation, de confiance et de fidélité des clients.