Les modèles IA sont ils suffisamment matures pour affronter les défis des Services Clients?

L’écart entre les repères et la réalité

Les entreprises technologiques communiquent régulièrement des performances impressionnantes telles que « 95 % de précision », « surpasse les humains dans le test X ». Mais ces tests académiques ne reflètent souvent pas la complexité du monde réel. Un LLM peut obtenir d’excellents résultats sur des ensembles de données spécifiques et échouer lamentablement face à des cas d’utilisation réels avec de l’ambiguïté, des nuances culturelles ou des situations qui nécessitent du bon sens.

L’échec de GPT-4.5 : sorti en février, retiré en juillet

L’un des cas les plus révélateurs de 2025 a été celui de GPT-4.5, le plus grand modèle jamais créé par OpenAI. Sorti en février 2025 sous le nom de code « Orion », il a été entraîné en utilisant plus de puissance de calcul et de données que tout autre modèle précédent de la société. Cependant, en avril 2025, deux mois seulement après son lancement, OpenAI a annoncé qu’elle retirerait l’accès API à GPT-4.5 le 14 juillet, ce qui en fait le modèle le plus éphémère de l’histoire commerciale d’OpenAI.

Les raisons ? Le modèle était extrêmement coûteux à exécuter (75 $ par million de jetons d’entrée et 150 $ par million de jetons de sortie, contre 2,50 $ et 10 $ pour GPT-4o), il présentait, en outre, des problèmes de latence et ne disposait apparemment pas des principales protections de sécurité nécessaires à l’évolutivité. Malgré sa taille massive, GPT-4.5 n’a pas atteint le seuil de performance attendue dans plusieurs benchmarks clés de l’industrie.

La communauté des développeurs a réagi avec frustration sur Reddit, Hacker News et Discord d’OpenAI. « Se déprécier après 4 mois, c’est fou », a écrit un développeur. Un autre fondateur de startup a commenté anonymement : « Tuer un modèle si rapidement affecte la confiance. Notre application est développée et optimisée pour interfacer avec GPT-4.5. Changer de modèle ne consiste pas à le remplacer directement par un autre”.

Cet épisode soulève des questions délicates sur la maturité réelle de la technologie que les entreprises adoptent à la hâte.

Une étude révèle que 1,75 % des avis sur les applications mobiles AI font état d’hallucinations

Une étude scientifique publiée en août 2025 dans Scientific Reports a analysé 3 millions d’avis d’utilisateurs de 90 applications mobiles alimentées par l’IA et a révélé qu’environ 1,75 % des avis pertinents signalaient des problèmes indiquant des hallucinations LLM. Les utilisateurs ont décrit des frustrations avec « Mon IA me ment » et d’autres problèmes similaires où le système a généré des informations plausibles mais incorrectes.

Qui prend ses responsabilités en cas d’échec ?

Une question délicate et critique se pose ici : lorsqu’un LLM fournit des informations incorrectes à un client, qui est responsable ? L’entreprise qui l’a déployé ? Le fournisseur de modèles ? Personne? Cette zone grise juridique et éthique est un terrain dangereux que de nombreuses entreprises ignorent dans leur course à l’automatisation.

L’affaire Air Canada a créé un précédent troublant : le tribunal a conclu que l’entreprise était responsable des fausses informations fournies par son chatbot, affirmant qu’il n’y avait « aucune distinction significative » entre les informations sur le site Web et celles fournies par le chatbot. La société a tenté de faire valoir que le chatbot était une « entité juridique distincte », un argument que le tribunal a catégoriquement rejeté.

L’utilisation de LLM dans un contexte de Service Client demeure très pertinente et prometteuse, mais les limitations et les risques de la technologie actuelle impose une approche prudente et structurée que nous aborderons dans les articles suivants.

SHA annonce l’accès à sa démo en ligne

Nous avons le plaisir d’annoncer que la version Démo d’INTRA est désormais disponible en ligne.

INTRA permet aux organisations d’élargir et de centraliser leurs connaissances, en garantissant leur application efficace dans les opérations, la formation et la gestion de la qualité.

En transformant les connaissances en informations exploitables, INTRA aide les équipes à améliorer la cohérence, l’efficacité opérationnelle et l’expérience client, tout en maintenant le contrôle des processus et des résultats.

Demandez l’accès et découvrez les principales fonctionnalités d’INTRA via notre section Démo.

Pour plus d’informations, veuillez contacter mc@sha-saas.com.

Echec et Mat pour l’IA et les Services Clients ? Quand connaître les règles ne suffit plus !

L’analogie entre une partie d’échecs et une interaction client-agent (humain) d’un service client, peut paraître surprenante mais en regardant de près les différents niveaux d’interactions, l’analogie peut être pertinente :

Si les objectifs de chaque interaction restent radicalement différents (échec et mat Vs CSat & solution à un problème), la montée progressive en complexité des 2 interactions présente en effet quelques similitudes :


Parallèles conceptuels

Partie d’échecsInteraction Call CenterSignification / Analogie
Stratégie d’ouvertureOuverture d’appel / accueil.Donner le ton et prendre le contrôle dès le début.
Combinaison tactiqueTraitement des objections.Réflexion rapide pour renverser les situations.
Précision en fin de partieClôture de l’appel.Assurer la résolution et la satisfaction avant de terminer.
SacrificeOffrir une compensation ou geste commercial.Perte à court terme pour un gain à long terme (fidélité ou rétention).
Échec et matSatisfaction du client et résolutionAtteindre le résultat escompté de manière efficace.
Erreur critiqueErreur de communication / violation des règlesUne erreur coûteuse qui affecte les résultats.
Pat (blocage)Impasse / escaladeAucune des deux parties n’atteint son objectif.
Pression du tempsPériodes de fort volume d’appelsDécisions sous tension ; Compromis entre l’efficacité et la précision.

Maintenant que le parallèle entre les 2 activités est clarifié, le comportement de l’IA sur ces interactions devient intéressant à observer :

Un exemple illustratif des limites des LLM (grands modèles de langage) provient d’expériences documentées avec les échecs.

En mars 2024, Chess.com a organisé une confrontation entre ChatGPT et Gemini de Google, où les deux systèmes pouvaient parfaitement expliquer les règles des échecs lorsqu’on leur demandait directement, mais ont ensuite violé ces mêmes règles à plusieurs reprises pendant le jeu. Les deux bots ont constamment tenté d’effectuer des mouvements illégaux, et lorsqu’ils ont été informés de l’erreur, ils ont continué à proposer des mouvements invalides.

Nikola Greb, un scientifique des données NLP et ancien champion d’échecs junior ELO 2000+, a joué plusieurs parties contre ChatGPT-4 en janvier 2024 et a documenté que le modèle jouait « comme un grand maître » dans les premiers coups d’ouverture, mais se détériorait considérablement au fur et à mesure que le jeu progressait. ChatGPT-4 a commencé à halluciner, proposant des mouvements impossibles même après avoir été averti. Greb a conclu que la note globale du système était inférieure à 1500, et a observé quelque chose de crucial : “Aucun apprentissage implicite des règles n’a eu lieu – ChatGPT-4 hallucine toujours aux échecs, et continue d’halluciner après l’avertissement sur l’hallucination. C’est quelque chose qui ne peut pas arriver à un humain.

Ce décalage entre ce qu’un LLM peut « dire » et ce qu’il peut « faire » révèle une limitation fondamentale : ils n’ont pas de véritables modèles mentaux du monde. Dans le contexte du service client, cela signifie qu’un bot peut parfaitement réciter la politique de l’entreprise mais l’appliquer de manière incorrecte dans des situations spécifiques, ou qu’il peut expliquer le fonctionnement d’un produit sans être en mesure de diagnostiquer un problème avec celui-ci.

Le tournoi d’échecs chatbot 2025

En janvier 2025, un tournoi d’échecs par chatbot diffusé sur la chaîne GothamChess a opposé le moteur d’échecs professionnel Stockfish à sept chatbots d’IA générative, dont ChatGPT, Gemini de Google et Grok de X. Les résultats ont été exactement ce à quoi on pouvait s’attendre lorsque les modèles de langage essaient de jouer aux échecs : des coups d’ouverture décents suivis de tentatives de plus en plus chaotiques pour contourner les lois du jeu. Le chatbot Snapchat a décidé que les pions pouvaient se déplacer latéralement comme une tour, et lorsque l’erreur a été signalée, il a refusé à plusieurs reprises de continuer à dire « Je suis désolé. Je ne peux pas m’engager dans une telle conversation. Gardons notre conversation respectueuse ».

Le problème de la mémoire et du contexte

Les LLM ont des limites de mémoire strictes. Bien que les modèles plus récents offrent des fenêtres de contexte plus larges, ils traitent toujours chaque conversation comme relativement isolée. Cela signifie qu’ils peuvent « oublier » des informations cruciales fournies au début d’une longue conversation, obligeant les clients à se répéter.

Nous verrons dans un des articles suivants comment éviter de mettre le client en échec tout en utilisant au mieux les capacités indéniables des IA…

Pourquoi les entreprises se lancent-elles les yeux fermés dans l’IA/LLM (Large Language Model) ? Est-ce pour de bonnes raisons (d’un point de vue business) ?

L’intelligence artificielle a fait irruption dans les services à la clientèle à une vitesse vertigineuse. Les chatbots, les assistants virtuels et les systèmes automatisés se multiplient sur les sites web et les applications, promettant de révolutionner l’expérience utilisateur. Mais il convient de se demander si les entreprises prennent cette décision sur la base de preuves solides ou suivent simplement une tendance ?

La séduction de la réduction de coût immédiate

Ne nous leurrons pas : le facteur économique est l’éléphant dans la pièce. L’automatisation du service client peut réduire considérablement les coûts opérationnels. Un chatbot n’a pas besoin de vacances, ne demande pas d’augmentation de salaire et peut servir des milliers d’utilisateurs simultanément. Pour les directeurs financiers, l’équation semble simple.

Cependant, cette vision à court terme ignore les coûts cachés : le développement et la mise en œuvre de systèmes d’IA robustes, la maintenance continue, la formation d’équipes hybrides homme-machine et, surtout, le coût de la réputation lorsque la technologie échoue ou frustre les clients ; les média étant très friands d’en rapporter les échecs.

L’effet FOMO de l’entreprise (Fear Of Missing Out ou la peur de rater le train de l’innovation)  

Il existe une « peur d’être laissé pour compte » dans le monde des affaires. Lorsque les concurrents annoncent leurs avancées en matière d’IA, les équipes dirigeantes poussent à « faire quelque chose avec l’intelligence artificielle ». L’IA est devenue un élément marketing, une case à cocher dans la présentation annuelle des résultats.

Cette adoption réactive, plutôt que stratégique, explique pourquoi tant d’implémentations semblent bâclées : interfaces déroutantes, bots qui ne comprennent pas les requêtes de base, ou systèmes qui frustrent plus qu’ils n’aident, acceptation des équipes en place très mitigée. La technologie est déployée non pas parce qu’elle résout de vrais problèmes, mais parce qu’il faut être montrer qu’on l’utilise.

Quelqu’un a-t-il demandé leur avis aux clients ?

Nous arrivons ici au point le plus délicat. Combien d’entreprises ont mené des études sérieuses sur ce que leurs clients préfèrent réellement avant de se lancer dans l’automatisation ? Des preuves suggèrent que de nombreux utilisateurs apprécient encore grandement le contact humain, en particulier dans des situations complexes ou chargées d’émotion.

Personne ne veut naviguer dans des menus automatisés sans fin lorsqu’il a un problème urgent. Personne n’aime répéter sa requête trois fois à un bot qui ne comprend pas le contexte. Et pourtant, ces expériences se multiplient chaque jour.


Le paradoxe est que beaucoup d’études confirment que les clients préfèrent interagir avec des humains quand ces derniers sont disponibles, et qu’ils se contentent d’alternatives IA dans le cas contraire.  Mais le paradoxe central réside dans le fait que les clients continuent d’acheter des produits et des services sans avoir le critère du support humain comme déterminant dans le choix du produit et de la marque. Est-ce parce qu’il n’existe que très peu d’offres sur le marché clairement labellisées « support performed by humans » ?


L’argument de l’efficacité… Pour qui ?

Les entreprises parlent d’« amélioration de l’efficacité », mais à qui bénéficie cette efficacité ? Un système peut être efficace pour l’entreprise (il traite plus de requêtes avec moins de ressources) et en même temps être inefficace pour le client (il nécessite plus de temps, génère plus de frustration).

La vraie question est la suivante : mesurons-nous correctement le succès ? Si les indicateurs sont purement internes (nombre de requêtes traitées, temps de réponse moyen, réduction des coûts), nous optimisons pour l’entreprise et non pour le client.

Confronté au double défi de partager la connaissance de votre entreprise et de disposer d’un outil performant pour la gestion des formations ? SHA a certainement une solution pour vous.

SHA est une plateforme qui combine des fonctionnalités de Gestion de l’Apprentissage avec des outils de Gestion de la Connaissance, soit pour utiliser les termes techniques couramment utilisés : SHA propose une solution qui fusionne des fonctionnalités LMS (Learning Management System) avec un KMS (Knowledge Management System)


La dernière version de SHA devient un Système de Gestion de Solutions (Solution Management Solution) un concept innovant, qui simplifie la gestion des connaissances et de l’apprentissage :

SMS est le résultat de la combinaison de KMS et LMS


La plateforme SHA s’adresse à toutes les entreprises qui gèrent au quotidien beaucoup d’informations et ont un besoin critique de s’assurer que leurs équipes ont rapidement et facilement accès à ces informations afin de les partager (clients, prospects, fournisseurs…).

Des entreprises qui considèrent à juste titre que la Connaissance fait partie de la Valeur Intrinsèque de l’entreprise et qu’il est capital de la gérer afin de partager le plus efficacement possible avec les personnes concernées.

Il est également nécessaire que les utilisateurs de ces informations puissent contribuer à l’amélioration de ces données en indiquant leur avis sur la pertinence de l’information fournie.

SHA associe à cette gestion de la connaissance des fonctionnalités avancée de Gestion de l’Apprentissage en orientant les utilisateurs vers des contenus que l’entreprise considère comme important pour effectuer leurs tâches de façon optimale (Coût, Qualité, Vélocité)

Les secteurs d’activité les plus consommateurs de ces outils sont ceux en général ceux qui interagissent avec les clients (Services Clients, Centre d’Appels…) mais toutes les divisions d’une entreprise qui cherche à optimiser sa performance opérationnelle sont concernées :

Nous avons établi, en échangeant longuement avec nos clients et prospects, un tableau non exhaustif des différents types de contenus et de leur volatilité dans le temps (facteur important pour la gestion du contenu)

Les documents mis en avant dans ce tableau (en vert) sont ceux que l’on retrouve les plus souvent cités comme contenus prioritaire dans les systèmes de KMS et LMS.


Tableau Statique
Catégorie Types de Documents Personnel Concerné Format Cycle de Vie
Politiques & Procédures Manuels des employés, SOPs, directives RH, Administration, Juridique, Affaires Générales PDF, Word (protégé) Moyen (mises à jour annuelles)
Contrats Contrats clients, accords fournisseurs Juridique, Ventes, Fournisseurs, Clients PDF (protégé) Définitif (rarement mis à jour)
Rapports Financiers Bilan, comptes de résultats, audits Personnel Financier, Administration XLS, PDF Moyen (mises à jour trimestrielles ou annuelles)
Matériel Marketing Brochures, campagnes, présentations Marketing, Ventes, Communication, Prospects PDF, PNG, PPT Court (mises à jour fréquentes)
Documents de Conception Plans, fichiers CAD, ébauches Conception, R&D CAD, PDF, propriétaire Court (mises à jour fréquentes)
Plans de Production Plannings, spécifications, logs de qualité Production, R&D, Clients XLS, Word Court (mises à jour fréquentes)
Dossiers Clients Entrées CRM, retours clients Personnel Service Client, Ventes, Clients Export base de données XLS Moyen (mises à jour périodiques)
Matériel de Formation Modules e-learning, guides d’intégration RH, Personnel Service, Affaires Générales PDF, Vidéo, PPT Moyen (révision tous les 1-3 ans)
Comptes-Rendus de Réunion Agendas, comptes-rendus, actions Affaires Générales, Administration, Toutes Équipes Word, PDF Court (cycles de projet spécifiques)
Dossiers Juridiques Rapports de conformité, dépôts de brevets Juridique, Personnel Financier, R&D PDF, Word Définitif (rarement mis à jour)
Mémos Internes Annonces, mises à jour, notes Administration, Tout le Personnel Email, PDF Court (utilisation unique)
Journaux de Service Rapports de maintenance, suivi des incidents Personnel Service, Production XLS, Word Moyen (mises à jour régulières)
Dossiers Fournisseurs Factures, journaux de livraison, contrats Fournisseurs, Personnel Financier, Administration PDF, XLS Moyen (mises à jour périodiques)
Dossiers Employés Évaluations, paie, formulaires de congé Personnel RH XLS, Word Moyen (mises à jour annuelles)
Rapports R&D Journaux d’expérimentation, rapports techniques R&D, Conception PDF, XLS Moyen (révision après projet ou annuelle)

La question que nos prospects nous posent le plus souvent est

Comment SHA parvient à être performant en fusionnant 2 activités qui la plupart du temps requiert l’utilisation de 2 plateformes distinctes. Comment SHA introduit des fonctionnalités LMS dans une plateforme KMS de gestion de contenu ?

C’est très simple, grâce à 3 facteurs principaux :

  • Considérer le contenu de formation comme un contenu « connaissance » standard. Et ceci même si l’on sait que le format, son cycle de vie et sa structure peut être différent d’un autre contenu.
  • Utiliser la dualité Contenu/Utilisateur qui est une des particularités de SHA. SHA gère les interactions entre le contenu et l’utilisateur, en ne perdant jamais de vue la pertinence du contenu du point de vue de l’utilisateur : Est-ce que cette information lui a permis d’accomplir la tâche qui lui est confiée ou nécessite-t-elle d’être améliorée ?
  • Considérer l’apprentissage plutôt que la formation. Les responsables opérationnels savent très bien que la Formation peut être sans effet alors que l’Apprentissage a un impact mesurable sur les opérations. Suivre une formation (en ligne ou en classe) n’aboutit pas toujours à une progression du niveau et ne résulte pas toujours à une amélioration des KPIs alors que l’apprentissage (avec les outils de contrôle et de suivi qualité fournis par SHA) permet de boucler la boucle et s’assurer que la formation apporte le bénéfice attendu.

Que votre organisation utilise déjà un LMS ou pas, SHA intègre très facilement le contenu destiné à l’apprentissage (du cours très structuré jusqu’au flash brief) et permet aux équipes de managers de s’assurer de la bonne acquisition (qualitativement et dans les temps impartis) du savoir.

Si vous utilisez déjà des outils de Gestion de Connaissance qui ne disposent pas des fonctionnalités de Gestion d’Apprentissage, SHA peut facilement intégrer votre contenu existant et immédiatement faciliter votre Gestion de Connaissance, et vous pourrez en plus bénéficier immédiatement des avantages d’une Gestion d’Apprentissage pour vos équipes.

Pour bénéficier de tous les avantages d’une gestion unifiée de votre Connaissance d’entreprise et de l’Apprentissage de vos équipes contactez nos experts, ils vous feront profiter de leur vaste expérience dans ce domaine !


SHA: un système de gestion des connaissances conçu et développé par des experts du service client qui ont apporté leur vision et leur expérience opérationnelle pour concevoir un système qui améliore l’expérience client, l’expérience du personnel et réduit le coût du service !

Pour plus d’informations sur la façon dont SHA peut transformer vos opérations, contactez-nous: 

/https://sha-saas.com/contact-us/