Ce que l’IA ne peut pas résoudre dans les Universités.

(Si l’architecture de la connaissance n’est pas redéfinie d’abord)

Considérons les Universités comme étant des institutions du savoir et de la connaissance toutes sciences et spécialités confondues:

  • Les Universités créent le savoir et le génèrent.
  • Elles le partagent, l’enseignent et le transfèrent.
  • Elles l’améliorent en le confrontant à d’autres savoirs, à d’autres vues de la connaissance.

Et pourtant, de nombreuses organisations académiques ne disposent pas de leurs propres connaissances opérationnelles pleinement structurées.

Ce n’est pas une question d’attitude. C’est un problème d’architecture.

Le coût invisible

Dans The Social Economy : Unlocking Value and Productivity through Social Technologies (2012), le McKinsey Global Institute a estimé que les travailleurs du savoir passent environ 20 % de leur journée à chercher des informations internes ou à trouver quelqu’un capable de les aider à accomplir une tâche.

Pas pour exécuter mais pour identifier ce qui est nécessaire pour pouvoir exécuter.

Extrapolé à une université de taille moyenne, cela représente une charge de travail globale équivalente à celle de centaines de personnes dédiées à la reconstruction du contexte et à la localisation de précédents déjà existants au sein de l’institution.

Plus récemment, dans  le Magic Quadrant for Knowledge Management Systems (2023) et dans ses analyses sur la gouvernance des connaissances, Gartner souligne qu’une part importante du travail dans les organisations à forte intensité de connaissances dépend d’informations non structurées réparties à travers plusieurs systèmes.

En pratique, ces connaissances sont souvent dispersées dans :

  • Emails
  • Dossiers partagés (la gestion du partage restant très peu claire)
  • Documents non versionnés. (pas de mise à jour ou de gestion de l’obsolescence)
  • Mémoire personnelle (avec la volatilité qu’on lui connait…)

Il n’apparaît pas comme un élément budgétaire. Mais cela a un impact direct sur l’efficacité, la cohérence et le risque opérationnel.

L’illusion technologique

L’émergence de l’IA générative a suscité une attente compréhensible : si la technologie peut répondre à n’importe quelle question, le problème de la recherche d’informations internes devrait être considérablement réduit.

Cependant, des preuves récentes introduisent des nuances pertinentes.

Les  Work Trend Index 2023 et Work Trend Index 2024 de Microsoft montrent que, si l’IA accélère l’élicitation de la réponse initiale, le besoin de validation augmente lorsque l’information source est incomplète ou incohérente.

Parallèlement, l’article « Generative AI at Work » publié dans Harvard Business Review (2023) analyse comment l’utilisation de l’IA augmente la productivité individuelle, mais montre également l’importance de disposer d’informations structurées et fiables pour éviter toute refonte.

De plus, dans The Economic Potential of Generative AI : The Next Productivity Frontier (2023), McKinsey & Company estime qu’entre 60 % et 70 % de l’impact potentiel de l’IA générative dépend de la qualité et de la structuration des connaissances organisationnelles sous-jacentes.

En termes stratégiques :

L’IA ne remplace pas une architecture de gestion de connaissance robuste. Cela l’amplifie — pour le meilleur ou pour le pire.

Investir dans l’IA de manière désorganisée équivaut à accélérer des processus déjà inefficaces.

Une décision structurelle

Les institutions qui réalisent des retours tangibles grâce à l’IA n’ont pas commencé par la technologie.

Ils ont commencé par identifier, structurer et gouverner leurs connaissances organisationnelles.

Des rapports industriels tels que How to Measure the ROI of Knowledge Management (Bloomfire, 2024) et les analyses de ROI publiées par Stravito (2024) montrent des réductions significatives du temps passé à la recherche et à la validation des informations après la mise en place de systèmes formels de gestion des connaissances.

La question n’est donc pas exclusivement technologique.

C’est une décision d’architecture organisationnelle qui conditionne le retour sur tout investissement ultérieur dans l’IA.

Un débat stratégique en attente

Dans de nombreuses universités, la conversation actuelle tourne autour des outils d’IA à adopter.

Cependant, la question précédente peut être une autre :

Les connaissances institutionnelles sont-elles structurées, gouvernées et prêtes à être amplifiées par l’IA ?

La réponse à cette question déterminera non seulement l’efficacité opérationnelle, mais aussi la cohérence institutionnelle et la capacité à prendre des décisions en fonction de la connaissance de soi.

Dans quels cas les agents IA peuvent satisfaire les attentes des clients? Quelle sont les bonnes approches, aujourd’hui et demain?

On observe que les Services Clients (internalisés et externalisés -BPO) affichent souvent des études démontrant que « les clients préfèrent parler à l’humain plutôt qu’interagir avec des robots d’IA », mais ces Services Clients proposent pourtant de plus en plus de services IA.

Les clients préfèrent effectivement interagir avec des humains, mais ils achètent pourtant des produits et des services à des vendeurs qui s’efforcent de réduire le coût humain en proposant des solutions de support IA.


Mais confier la totalité des interactions clients à des agents AI est il vraiment économique? Est-ce que le client sort vraiment gagnant, a-t-il vraiment le choix?

On comprend facilement qu’il est difficile de convaincre un client de payer un premium à l’achat pour pouvoir interagir avec un humain en cas de besoin de support éventuel,

Pour rester compétitif, il convient de trouver des moyens de rendre le fonctionnement du Service Client moins onéreux sans en dégrader la qualité en s’appuyant d’outils utilisant l’IA afin de booster la productivité des agents humains.

Quelles sont les limites à envisager?


Dans le cas d’interactions de base, simples, répétitives et n’impliquant pas de risques majeurs tels que:

  • Risques financiers
  • Dégradation de réputation
  • Risque de non-conformité
  • Risques légaux  

Ces interactions peuvent être gérée par des agents IA.


Par contre lors d’interactions nécessitant:

  • De l’empathie afin de réduire le stress du client.
  • De clarifier la description du problème faite par le client.  
  • De résoudre des problèmes complexes multi-sources.
  • D’envisager diverses combinaisons de solutions avec des choix à faire
  • Une compréhension des conformités en jeux (financières, liées à la santé…) avec un impact critique pour le client et l’entreprise, en terme de sûreté, sécurité…

Alors les humains peuvent interagir de manière beaucoup moins coûteuse et efficace.


Quelles contraintes pour rendre l’humain performant?

Restons toutefois conscient que cette efficacité à coût maîtrisé impose de mettre à disposition des agents des outils performants:

  • Accès aux processus à jour.
  • Accès aux références techniques.
  • Accès aux méthodes de diagnostiques complexes (arbres de décisions…).
  • Protocoles d’escalade.
  • Protocoles de compensation clairs et fluides.
  • Contribution à l’amélioration quotidienne de ces outils en fournissant des commentaires significatifs.

Quand l’IA fonctionne… Et quand ce n’est pas le cas

Soyons justes : il y a des cas où l’IA apporte une réelle valeur aux Services Clients.

  • Réponses instantanées aux questions simples et non-anbigües fréquemment posées,
  • disponibilité 24h/24 et 7j/7.
  • capacité à gérer les pics de demande.
  • demandes en plusieurs langues.

Pour les tâches de routine bien définies, l’automatisation peut être vraiment utile.

Le problème se pose lorsque vous essayez d’appliquer la même logique à l’ensemble du spectre du service client. Des situations exceptionnelles, des problèmes complexes, des clients frustrés ou des plaintes sensibles nécessitent de l’empathie, de la flexibilité et un jugement humain – précisément ce que l’IA  ne peut pas toujours offrir aujourd’hui.

Un rapport de McKinsey & Co. de mars 2025 a montré que 71 % des entreprises utilisent désormais l’IA générative dans au moins une fonction commerciale, mais que l’adoption est nettement plus faible dans les secteurs hautement réglementés : 63 % dans le secteur de la santé et 65 % dans les services financiers, précisément là où les erreurs ont le plus d’impact.


Une proposition d’équilibre

Peut-être que la question ne devrait pas être « IA oui ou non ? », mais « combien d’IA et où ? ». Une approche hybride intelligente serait :

  • Utiliser l’IA pour filtrer et catégoriser les requêtes initiales, en reconnaissant leurs limites
  • Automatiser véritablement les tâches simples et répétitives où les erreurs ont peu d’impacts.
  • Mettre en place des systèmes de vérification humaine pour les réponses critiques (en gardant les humains dans la boucle, comme recommandé par Red Hat)
  • Faciliter l’accès rapide (instantanée ?) à un humain lorsque la situation l’exige ou lorsque l’IA exprime une incertitude (sachant qu’un des problèmes des agents IA est d’admettre qu’ils ne sont pas en mesure de répondre correctement…voir nos publications précédentes)
  • Inclure des avertissements clairs indiquant quand les informations sont générées par l’IA
  • Former des agents humains à travailler avec des outils d’IA qui les responsabilisent, et non les remplacent
  • Mesurer le succès du point de vue du client au premier plan, et pas celui de l’entreprise, le succès pour le client entraîne forcément celui de l’entreprise. L’inverse est rarement vrai…
  • Etre transparent sur le moment où les clients interagissent avec l’IA et quand avec les humains.
  • Faire confiance à l’esprit critique de vos équipes en les impliquant directement dans l’amélioration des solutions apportées aux clients.

On peut résumer cette longue liste en préconisant de mettre à disposition de vos équipes des outils qui utilisent l’IA et gèrent la connaissance de votre entreprise tout en l’améliorant avec une plateforme de Gestion de Connaissance – KMS (Knowledge Management Systems)


La question qui dérange

En fin de compte, une réflexion délicate demeure : les entreprises adoptent-elles l’IA dans le service client parce que c’est la meilleure solution pour leurs utilisateurs, ou parce que cela semble la solution pour protéger la profitabilité ? S’agit-il d’une véritable innovation ou d’une optimisation déguisée en modernité ?

Et le font-ils en toute connaissance de cause des limites techniques réelles de ces systèmes ? Les données suggèrent que non. Quand GPT-4 et GPT-4 Turbo, les modèles les plus précis disponibles, hallucinent 3 % du temps ; lorsque des modèles de raisonnement avancés tels que O3 et O4-mini hallucinent respectivement 33 % et 48 % du temps ; lorsque le modèle le plus grand et le plus cher d’OpenAI doit être retiré après seulement 4 mois ; Lorsque les tribunaux commencent à tenir les entreprises responsables des fausses informations fournies par leurs chatbots, tout cela suggère que l’industrie tente de courir avant d’apprendre à marcher.

La réponse varie probablement d’une entreprise à l’autre, mais le silence assourdissant sur les études de satisfaction client, sur les taux d’abandon dans les systèmes automatisés, sur le nombre d’utilisateurs cherchant désespérément l’option « parler à un humain » et sur les défaillances techniques réelles et documentées des LLM, suggère que nous ne nous posons peut-être pas les bonnes questions.

La technologie est un outil, pas un objectif. Et un outil n’est utile que s’il résout les problèmes réels des vraies personnes qui l’utilisent, et s’il fonctionne de manière fiable dans le monde réel, et pas seulement dans les benchmarks de laboratoire.

Tant que les décisions concernant l’IA dans le service client seront prises dans les salles de conseil en examinant des feuilles de calcul et des présentations commerciales de fournisseurs de technologie, plutôt qu’en discutant avec de vrais clients et avec une compréhension honnête des limites techniques documentées, nous continuerons à voir des mises en œuvre qui privilégient l’efficacité de l’entreprise plutôt que l’expérience humaine.

Et peut-être plus inquiétant encore, nous continuerons à voir des entreprises surprises lorsque leurs systèmes d’IA échouent, lorsque leurs clients deviennent frustrés et lorsqu’elles découvrent que les économies à court terme peuvent être très coûteuses lorsqu’elles se mesurent à la perte de réputation, de confiance et de fidélité des clients.

La réalité technique : les LLM ne sont pas aussi brillants qu’ils en ont l’air

Au-delà du discours commercial sur les avancées spectaculaires de l’IA, la réalité technique des grands modèles de langage (LLM) présente des limites importantes qui sont rarement mentionnées dans les présentations d’entreprise.

Hallucinations : le talon d’Achille persistant

L’un des problèmes les plus graves est que les LLM peuvent « halluciner » des informations en toute confiance. Ces systèmes inventent des données, des citations ou des faits qui semblent tout à fait crédibles mais qui sont totalement faux. Une étude de Vectara a révélé que les modèles les plus précis, GPT-4 et GPT-4 Turbo, hallucinent environ 3 % du temps lorsqu’ils résument des textes, tandis que d’autres modèles atteignent des taux d’erreur de 27 %.

Dans le service client, cela a des conséquences réelles et coûteuses. Air Canada a été contrainte en février 2024 par un tribunal canadien de verser une indemnisation à un client après que son chatbot a inventé une politique de frais de deuil qui n’existait pas. Le bot a affirmé avec confiance que les clients pouvaient demander des réductions rétroactivement jusqu’à 90 jours après l’émission du billet, ce qui est complètement faux selon la politique réelle de l’entreprise. Parmi les autres cas notables, citons DPD, une entreprise de logistique européenne, qui a dû désactiver une partie de son chatbot après avoir commencé à insulter les clients et à décrire l’entreprise comme « le pire service de livraison au monde ». Virgin Money a également été contraint de s’excuser après que son chatbot a réprimandé un utilisateur pour avoir utilisé le mot « vierge ». Et Cursor, une startup tech américaine, a dû limiter les dégâts lorsque son chatbot a informé les clients d’un changement radical de sa politique d’utilisation qui était complètement fictive.

Le paradoxe des modèles de raisonnement avancés

Paradoxalement, les modèles de raisonnement plus avancés, qui utilisent des approches de « chaîne de pensée » pour décomposer des problèmes complexes en petits morceaux, semblent halluciner plus souvent que les LLM ordinaires, selon l’analyse de Vectara. OpenAI a reconnu dans un rapport sur les performances de ses derniers modèles de raisonnement que o1 a halluciné 16 % du temps lors de la synthèse d’informations publiques sur des personnes, tandis que ses nouveaux modèles o3 et o4-mini ont halluciné 33 % et 48 % du temps, respectivement.

Mathématiques de base et raisonnement logique

Ironiquement, alors que les entreprises vendent ces systèmes comme des « superintelligences », les LLM ont des difficultés notables avec des tâches que n’importe quel élève d’école primaire pourrait résoudre. Le raisonnement mathématique de base reste un point faible, ce qui est problématique lorsque les clients posent des questions sur les remises, les dates de garantie ou les calculs de coûts.

Comment gérer ce risque et avoir une totale confiance en ses outils utilisant l’IA?

Nous avons identifié des précautions à prendre et des méthodes à suivre afin de tirer le meilleur parti des capacités de l’IA (Pour les services clients comme dans tous les domaines qui gèrent des informations critiques) et nous partagerons ces éléments dans le dernier des 5 articles que nous publions à ce propos.

Restez à l’écoute!

Echec et Mat pour l’IA et les Services Clients ? Quand connaître les règles ne suffit plus !

L’analogie entre une partie d’échecs et une interaction client-agent (humain) d’un service client, peut paraître surprenante mais en regardant de près les différents niveaux d’interactions, l’analogie peut être pertinente :

Si les objectifs de chaque interaction restent radicalement différents (échec et mat Vs CSat & solution à un problème), la montée progressive en complexité des 2 interactions présente en effet quelques similitudes :


Parallèles conceptuels

Partie d’échecsInteraction Call CenterSignification / Analogie
Stratégie d’ouvertureOuverture d’appel / accueil.Donner le ton et prendre le contrôle dès le début.
Combinaison tactiqueTraitement des objections.Réflexion rapide pour renverser les situations.
Précision en fin de partieClôture de l’appel.Assurer la résolution et la satisfaction avant de terminer.
SacrificeOffrir une compensation ou geste commercial.Perte à court terme pour un gain à long terme (fidélité ou rétention).
Échec et matSatisfaction du client et résolutionAtteindre le résultat escompté de manière efficace.
Erreur critiqueErreur de communication / violation des règlesUne erreur coûteuse qui affecte les résultats.
Pat (blocage)Impasse / escaladeAucune des deux parties n’atteint son objectif.
Pression du tempsPériodes de fort volume d’appelsDécisions sous tension ; Compromis entre l’efficacité et la précision.

Maintenant que le parallèle entre les 2 activités est clarifié, le comportement de l’IA sur ces interactions devient intéressant à observer :

Un exemple illustratif des limites des LLM (grands modèles de langage) provient d’expériences documentées avec les échecs.

En mars 2024, Chess.com a organisé une confrontation entre ChatGPT et Gemini de Google, où les deux systèmes pouvaient parfaitement expliquer les règles des échecs lorsqu’on leur demandait directement, mais ont ensuite violé ces mêmes règles à plusieurs reprises pendant le jeu. Les deux bots ont constamment tenté d’effectuer des mouvements illégaux, et lorsqu’ils ont été informés de l’erreur, ils ont continué à proposer des mouvements invalides.

Nikola Greb, un scientifique des données NLP et ancien champion d’échecs junior ELO 2000+, a joué plusieurs parties contre ChatGPT-4 en janvier 2024 et a documenté que le modèle jouait « comme un grand maître » dans les premiers coups d’ouverture, mais se détériorait considérablement au fur et à mesure que le jeu progressait. ChatGPT-4 a commencé à halluciner, proposant des mouvements impossibles même après avoir été averti. Greb a conclu que la note globale du système était inférieure à 1500, et a observé quelque chose de crucial : “Aucun apprentissage implicite des règles n’a eu lieu – ChatGPT-4 hallucine toujours aux échecs, et continue d’halluciner après l’avertissement sur l’hallucination. C’est quelque chose qui ne peut pas arriver à un humain.

Ce décalage entre ce qu’un LLM peut « dire » et ce qu’il peut « faire » révèle une limitation fondamentale : ils n’ont pas de véritables modèles mentaux du monde. Dans le contexte du service client, cela signifie qu’un bot peut parfaitement réciter la politique de l’entreprise mais l’appliquer de manière incorrecte dans des situations spécifiques, ou qu’il peut expliquer le fonctionnement d’un produit sans être en mesure de diagnostiquer un problème avec celui-ci.

Le tournoi d’échecs chatbot 2025

En janvier 2025, un tournoi d’échecs par chatbot diffusé sur la chaîne GothamChess a opposé le moteur d’échecs professionnel Stockfish à sept chatbots d’IA générative, dont ChatGPT, Gemini de Google et Grok de X. Les résultats ont été exactement ce à quoi on pouvait s’attendre lorsque les modèles de langage essaient de jouer aux échecs : des coups d’ouverture décents suivis de tentatives de plus en plus chaotiques pour contourner les lois du jeu. Le chatbot Snapchat a décidé que les pions pouvaient se déplacer latéralement comme une tour, et lorsque l’erreur a été signalée, il a refusé à plusieurs reprises de continuer à dire « Je suis désolé. Je ne peux pas m’engager dans une telle conversation. Gardons notre conversation respectueuse ».

Le problème de la mémoire et du contexte

Les LLM ont des limites de mémoire strictes. Bien que les modèles plus récents offrent des fenêtres de contexte plus larges, ils traitent toujours chaque conversation comme relativement isolée. Cela signifie qu’ils peuvent « oublier » des informations cruciales fournies au début d’une longue conversation, obligeant les clients à se répéter.

Nous verrons dans un des articles suivants comment éviter de mettre le client en échec tout en utilisant au mieux les capacités indéniables des IA…

SHA annonce le fine-tuning supervisé des LLMs dans INTRA

SHA enrichit les capacités de sa plateforme INTRA avec l’introduction du fine-tuning supervisé des LLMs (Large Language Models). Cette nouvelle fonctionnalité vient compléter le fine-tuning non supervisé déjà existant, offrant ainsi une approche duale pour optimiser les performances de l’IA et améliorer la Gestion de Connaissances de l’entreprise.

Cette approche duale renforce la capacité d’INTRA à :

  • Fournir des réponses précises basées sur la connaissance interne de l’entreprise.
  • S’adapter à des domaines sectoriels spécifiques.
  • S’améliorer en continu grâce à l’apprentissage supervisé guidé par les utilisateurs.

Avec le fine-tuning non supervisé, INTRA adaptait déjà les modèles ouverts à partir du corpus propriétaire du client, auquel pouvait être ajoutés des domaines spécifiques liés à la nature de son activité. Ainsi, les modèles assimilaient la terminologie, la documentation et les processus internes propres à chaque organisation.

Désormais, grâce au fine-tuning supervisé, INTRA va encore plus loin : le système apprend directement des questions posées par les utilisateurs et des réponses générées par les LLMs. Ce processus d’apprentissage itératif affine progressivement le modèle, augmentant la précision et la pertinence lors des interactions réelles.

« En combinant le fine-tuning supervisé et non supervisé, INTRA permet aux organisations de construire une IA véritablement adaptative : formée sur leur corpus propriétaire et perfectionnée grâce aux interactions réelles des utilisateurs, » a déclaré José Luis Caaveiro, CEO de SHA.

Pour plus d’informations, veuillez contacter : mc@sha-saas.com

Avec la Plateforme de Gestion de Connaissance SHA, formez vos équipes et obtenez vos Certificats de Formation!

Quelques minutes de formation quotidienne peuvent devenir des heures chaque mois!

Les équipes SHA sont à l’écoute permanente de leurs clients et lors de discussions avec les utilisateurs de notre plateforme de Gestion de Connaissance, ils ont exprimé leur satisfaction à propos de l’intégration de la fonctionnalité formation dans un KMS (Gestionnaire de Connaissance/ Knowledge Management System).


Et la discussion ne n’est pas arrêtée là : les Managers HR et Opérationnels nous ont dit que ce serait encore mieux si ils pouvaient obtenir facilement un rapport sur le temps passé, par chaque individu, sur ces formations!

Excellente suggestion effectivement ! C’est pourquoi nous l’avons mise en place pour que les chefs d’équipe, les gestionnaires de comptes, les directeurs opérationnels, les responsables des ressources humaines puissent avoir, en un clic, une vue sur le temps de formation et obtenir les certificats correspondants, chaque minute de formation est ainsi comptabilisée par individu, par équipe, par département…


Oh, et voici un fait qui va vous intéresser : dans certains pays (oui notamment en France mais pas seulement), les centres de formation certifiés doivent suivre l’indice de satisfaction des apprenants (LSAT). Mais devinez quoi ? Nous avons simplifié la gestion et la communication des évaluations LSAT grâce à notre module d’enquête sur la formation. Nous ne nous contentons pas de boucler la boucle en matière de qualité de la formation ; Nous y ajoutons un joli nœud fantaisie !

Et ceci tout en gardant ce qui fait la force de SHA : Facile à Créer, Simple à Utiliser et Evident à Analyser !


Pour plus d’informations, contactez nous!

https://sha-saas.com/contact-us/