Ce que l’IA ne peut pas résoudre dans les Universités.

(Si l’architecture de la connaissance n’est pas redéfinie d’abord)

Considérons les Universités comme étant des institutions du savoir et de la connaissance toutes sciences et spécialités confondues:

  • Les Universités créent le savoir et le génèrent.
  • Elles le partagent, l’enseignent et le transfèrent.
  • Elles l’améliorent en le confrontant à d’autres savoirs, à d’autres vues de la connaissance.

Et pourtant, de nombreuses organisations académiques ne disposent pas de leurs propres connaissances opérationnelles pleinement structurées.

Ce n’est pas une question d’attitude. C’est un problème d’architecture.

Le coût invisible

Dans The Social Economy : Unlocking Value and Productivity through Social Technologies (2012), le McKinsey Global Institute a estimé que les travailleurs du savoir passent environ 20 % de leur journée à chercher des informations internes ou à trouver quelqu’un capable de les aider à accomplir une tâche.

Pas pour exécuter mais pour identifier ce qui est nécessaire pour pouvoir exécuter.

Extrapolé à une université de taille moyenne, cela représente une charge de travail globale équivalente à celle de centaines de personnes dédiées à la reconstruction du contexte et à la localisation de précédents déjà existants au sein de l’institution.

Plus récemment, dans  le Magic Quadrant for Knowledge Management Systems (2023) et dans ses analyses sur la gouvernance des connaissances, Gartner souligne qu’une part importante du travail dans les organisations à forte intensité de connaissances dépend d’informations non structurées réparties à travers plusieurs systèmes.

En pratique, ces connaissances sont souvent dispersées dans :

  • Emails
  • Dossiers partagés (la gestion du partage restant très peu claire)
  • Documents non versionnés. (pas de mise à jour ou de gestion de l’obsolescence)
  • Mémoire personnelle (avec la volatilité qu’on lui connait…)

Il n’apparaît pas comme un élément budgétaire. Mais cela a un impact direct sur l’efficacité, la cohérence et le risque opérationnel.

L’illusion technologique

L’émergence de l’IA générative a suscité une attente compréhensible : si la technologie peut répondre à n’importe quelle question, le problème de la recherche d’informations internes devrait être considérablement réduit.

Cependant, des preuves récentes introduisent des nuances pertinentes.

Les  Work Trend Index 2023 et Work Trend Index 2024 de Microsoft montrent que, si l’IA accélère l’élicitation de la réponse initiale, le besoin de validation augmente lorsque l’information source est incomplète ou incohérente.

Parallèlement, l’article « Generative AI at Work » publié dans Harvard Business Review (2023) analyse comment l’utilisation de l’IA augmente la productivité individuelle, mais montre également l’importance de disposer d’informations structurées et fiables pour éviter toute refonte.

De plus, dans The Economic Potential of Generative AI : The Next Productivity Frontier (2023), McKinsey & Company estime qu’entre 60 % et 70 % de l’impact potentiel de l’IA générative dépend de la qualité et de la structuration des connaissances organisationnelles sous-jacentes.

En termes stratégiques :

L’IA ne remplace pas une architecture de gestion de connaissance robuste. Cela l’amplifie — pour le meilleur ou pour le pire.

Investir dans l’IA de manière désorganisée équivaut à accélérer des processus déjà inefficaces.

Une décision structurelle

Les institutions qui réalisent des retours tangibles grâce à l’IA n’ont pas commencé par la technologie.

Ils ont commencé par identifier, structurer et gouverner leurs connaissances organisationnelles.

Des rapports industriels tels que How to Measure the ROI of Knowledge Management (Bloomfire, 2024) et les analyses de ROI publiées par Stravito (2024) montrent des réductions significatives du temps passé à la recherche et à la validation des informations après la mise en place de systèmes formels de gestion des connaissances.

La question n’est donc pas exclusivement technologique.

C’est une décision d’architecture organisationnelle qui conditionne le retour sur tout investissement ultérieur dans l’IA.

Un débat stratégique en attente

Dans de nombreuses universités, la conversation actuelle tourne autour des outils d’IA à adopter.

Cependant, la question précédente peut être une autre :

Les connaissances institutionnelles sont-elles structurées, gouvernées et prêtes à être amplifiées par l’IA ?

La réponse à cette question déterminera non seulement l’efficacité opérationnelle, mais aussi la cohérence institutionnelle et la capacité à prendre des décisions en fonction de la connaissance de soi.

Dans quels cas les agents IA peuvent satisfaire les attentes des clients? Quelle sont les bonnes approches, aujourd’hui et demain?

On observe que les Services Clients (internalisés et externalisés -BPO) affichent souvent des études démontrant que « les clients préfèrent parler à l’humain plutôt qu’interagir avec des robots d’IA », mais ces Services Clients proposent pourtant de plus en plus de services IA.

Les clients préfèrent effectivement interagir avec des humains, mais ils achètent pourtant des produits et des services à des vendeurs qui s’efforcent de réduire le coût humain en proposant des solutions de support IA.


Mais confier la totalité des interactions clients à des agents AI est il vraiment économique? Est-ce que le client sort vraiment gagnant, a-t-il vraiment le choix?

On comprend facilement qu’il est difficile de convaincre un client de payer un premium à l’achat pour pouvoir interagir avec un humain en cas de besoin de support éventuel,

Pour rester compétitif, il convient de trouver des moyens de rendre le fonctionnement du Service Client moins onéreux sans en dégrader la qualité en s’appuyant d’outils utilisant l’IA afin de booster la productivité des agents humains.

Quelles sont les limites à envisager?


Dans le cas d’interactions de base, simples, répétitives et n’impliquant pas de risques majeurs tels que:

  • Risques financiers
  • Dégradation de réputation
  • Risque de non-conformité
  • Risques légaux  

Ces interactions peuvent être gérée par des agents IA.


Par contre lors d’interactions nécessitant:

  • De l’empathie afin de réduire le stress du client.
  • De clarifier la description du problème faite par le client.  
  • De résoudre des problèmes complexes multi-sources.
  • D’envisager diverses combinaisons de solutions avec des choix à faire
  • Une compréhension des conformités en jeux (financières, liées à la santé…) avec un impact critique pour le client et l’entreprise, en terme de sûreté, sécurité…

Alors les humains peuvent interagir de manière beaucoup moins coûteuse et efficace.


Quelles contraintes pour rendre l’humain performant?

Restons toutefois conscient que cette efficacité à coût maîtrisé impose de mettre à disposition des agents des outils performants:

  • Accès aux processus à jour.
  • Accès aux références techniques.
  • Accès aux méthodes de diagnostiques complexes (arbres de décisions…).
  • Protocoles d’escalade.
  • Protocoles de compensation clairs et fluides.
  • Contribution à l’amélioration quotidienne de ces outils en fournissant des commentaires significatifs.

Quand l’IA fonctionne… Et quand ce n’est pas le cas

Soyons justes : il y a des cas où l’IA apporte une réelle valeur aux Services Clients.

  • Réponses instantanées aux questions simples et non-anbigües fréquemment posées,
  • disponibilité 24h/24 et 7j/7.
  • capacité à gérer les pics de demande.
  • demandes en plusieurs langues.

Pour les tâches de routine bien définies, l’automatisation peut être vraiment utile.

Le problème se pose lorsque vous essayez d’appliquer la même logique à l’ensemble du spectre du service client. Des situations exceptionnelles, des problèmes complexes, des clients frustrés ou des plaintes sensibles nécessitent de l’empathie, de la flexibilité et un jugement humain – précisément ce que l’IA  ne peut pas toujours offrir aujourd’hui.

Un rapport de McKinsey & Co. de mars 2025 a montré que 71 % des entreprises utilisent désormais l’IA générative dans au moins une fonction commerciale, mais que l’adoption est nettement plus faible dans les secteurs hautement réglementés : 63 % dans le secteur de la santé et 65 % dans les services financiers, précisément là où les erreurs ont le plus d’impact.


Une proposition d’équilibre

Peut-être que la question ne devrait pas être « IA oui ou non ? », mais « combien d’IA et où ? ». Une approche hybride intelligente serait :

  • Utiliser l’IA pour filtrer et catégoriser les requêtes initiales, en reconnaissant leurs limites
  • Automatiser véritablement les tâches simples et répétitives où les erreurs ont peu d’impacts.
  • Mettre en place des systèmes de vérification humaine pour les réponses critiques (en gardant les humains dans la boucle, comme recommandé par Red Hat)
  • Faciliter l’accès rapide (instantanée ?) à un humain lorsque la situation l’exige ou lorsque l’IA exprime une incertitude (sachant qu’un des problèmes des agents IA est d’admettre qu’ils ne sont pas en mesure de répondre correctement…voir nos publications précédentes)
  • Inclure des avertissements clairs indiquant quand les informations sont générées par l’IA
  • Former des agents humains à travailler avec des outils d’IA qui les responsabilisent, et non les remplacent
  • Mesurer le succès du point de vue du client au premier plan, et pas celui de l’entreprise, le succès pour le client entraîne forcément celui de l’entreprise. L’inverse est rarement vrai…
  • Etre transparent sur le moment où les clients interagissent avec l’IA et quand avec les humains.
  • Faire confiance à l’esprit critique de vos équipes en les impliquant directement dans l’amélioration des solutions apportées aux clients.

On peut résumer cette longue liste en préconisant de mettre à disposition de vos équipes des outils qui utilisent l’IA et gèrent la connaissance de votre entreprise tout en l’améliorant avec une plateforme de Gestion de Connaissance – KMS (Knowledge Management Systems)


La question qui dérange

En fin de compte, une réflexion délicate demeure : les entreprises adoptent-elles l’IA dans le service client parce que c’est la meilleure solution pour leurs utilisateurs, ou parce que cela semble la solution pour protéger la profitabilité ? S’agit-il d’une véritable innovation ou d’une optimisation déguisée en modernité ?

Et le font-ils en toute connaissance de cause des limites techniques réelles de ces systèmes ? Les données suggèrent que non. Quand GPT-4 et GPT-4 Turbo, les modèles les plus précis disponibles, hallucinent 3 % du temps ; lorsque des modèles de raisonnement avancés tels que O3 et O4-mini hallucinent respectivement 33 % et 48 % du temps ; lorsque le modèle le plus grand et le plus cher d’OpenAI doit être retiré après seulement 4 mois ; Lorsque les tribunaux commencent à tenir les entreprises responsables des fausses informations fournies par leurs chatbots, tout cela suggère que l’industrie tente de courir avant d’apprendre à marcher.

La réponse varie probablement d’une entreprise à l’autre, mais le silence assourdissant sur les études de satisfaction client, sur les taux d’abandon dans les systèmes automatisés, sur le nombre d’utilisateurs cherchant désespérément l’option « parler à un humain » et sur les défaillances techniques réelles et documentées des LLM, suggère que nous ne nous posons peut-être pas les bonnes questions.

La technologie est un outil, pas un objectif. Et un outil n’est utile que s’il résout les problèmes réels des vraies personnes qui l’utilisent, et s’il fonctionne de manière fiable dans le monde réel, et pas seulement dans les benchmarks de laboratoire.

Tant que les décisions concernant l’IA dans le service client seront prises dans les salles de conseil en examinant des feuilles de calcul et des présentations commerciales de fournisseurs de technologie, plutôt qu’en discutant avec de vrais clients et avec une compréhension honnête des limites techniques documentées, nous continuerons à voir des mises en œuvre qui privilégient l’efficacité de l’entreprise plutôt que l’expérience humaine.

Et peut-être plus inquiétant encore, nous continuerons à voir des entreprises surprises lorsque leurs systèmes d’IA échouent, lorsque leurs clients deviennent frustrés et lorsqu’elles découvrent que les économies à court terme peuvent être très coûteuses lorsqu’elles se mesurent à la perte de réputation, de confiance et de fidélité des clients.

La réalité technique : les LLM ne sont pas aussi brillants qu’ils en ont l’air

Au-delà du discours commercial sur les avancées spectaculaires de l’IA, la réalité technique des grands modèles de langage (LLM) présente des limites importantes qui sont rarement mentionnées dans les présentations d’entreprise.

Hallucinations : le talon d’Achille persistant

L’un des problèmes les plus graves est que les LLM peuvent « halluciner » des informations en toute confiance. Ces systèmes inventent des données, des citations ou des faits qui semblent tout à fait crédibles mais qui sont totalement faux. Une étude de Vectara a révélé que les modèles les plus précis, GPT-4 et GPT-4 Turbo, hallucinent environ 3 % du temps lorsqu’ils résument des textes, tandis que d’autres modèles atteignent des taux d’erreur de 27 %.

Dans le service client, cela a des conséquences réelles et coûteuses. Air Canada a été contrainte en février 2024 par un tribunal canadien de verser une indemnisation à un client après que son chatbot a inventé une politique de frais de deuil qui n’existait pas. Le bot a affirmé avec confiance que les clients pouvaient demander des réductions rétroactivement jusqu’à 90 jours après l’émission du billet, ce qui est complètement faux selon la politique réelle de l’entreprise. Parmi les autres cas notables, citons DPD, une entreprise de logistique européenne, qui a dû désactiver une partie de son chatbot après avoir commencé à insulter les clients et à décrire l’entreprise comme « le pire service de livraison au monde ». Virgin Money a également été contraint de s’excuser après que son chatbot a réprimandé un utilisateur pour avoir utilisé le mot « vierge ». Et Cursor, une startup tech américaine, a dû limiter les dégâts lorsque son chatbot a informé les clients d’un changement radical de sa politique d’utilisation qui était complètement fictive.

Le paradoxe des modèles de raisonnement avancés

Paradoxalement, les modèles de raisonnement plus avancés, qui utilisent des approches de « chaîne de pensée » pour décomposer des problèmes complexes en petits morceaux, semblent halluciner plus souvent que les LLM ordinaires, selon l’analyse de Vectara. OpenAI a reconnu dans un rapport sur les performances de ses derniers modèles de raisonnement que o1 a halluciné 16 % du temps lors de la synthèse d’informations publiques sur des personnes, tandis que ses nouveaux modèles o3 et o4-mini ont halluciné 33 % et 48 % du temps, respectivement.

Mathématiques de base et raisonnement logique

Ironiquement, alors que les entreprises vendent ces systèmes comme des « superintelligences », les LLM ont des difficultés notables avec des tâches que n’importe quel élève d’école primaire pourrait résoudre. Le raisonnement mathématique de base reste un point faible, ce qui est problématique lorsque les clients posent des questions sur les remises, les dates de garantie ou les calculs de coûts.

Comment gérer ce risque et avoir une totale confiance en ses outils utilisant l’IA?

Nous avons identifié des précautions à prendre et des méthodes à suivre afin de tirer le meilleur parti des capacités de l’IA (Pour les services clients comme dans tous les domaines qui gèrent des informations critiques) et nous partagerons ces éléments dans le dernier des 5 articles que nous publions à ce propos.

Restez à l’écoute!

Les modèles IA sont ils suffisamment matures pour affronter les défis des Services Clients?

L’écart entre les repères et la réalité

Les entreprises technologiques communiquent régulièrement des performances impressionnantes telles que « 95 % de précision », « surpasse les humains dans le test X ». Mais ces tests académiques ne reflètent souvent pas la complexité du monde réel. Un LLM peut obtenir d’excellents résultats sur des ensembles de données spécifiques et échouer lamentablement face à des cas d’utilisation réels avec de l’ambiguïté, des nuances culturelles ou des situations qui nécessitent du bon sens.

L’échec de GPT-4.5 : sorti en février, retiré en juillet

L’un des cas les plus révélateurs de 2025 a été celui de GPT-4.5, le plus grand modèle jamais créé par OpenAI. Sorti en février 2025 sous le nom de code « Orion », il a été entraîné en utilisant plus de puissance de calcul et de données que tout autre modèle précédent de la société. Cependant, en avril 2025, deux mois seulement après son lancement, OpenAI a annoncé qu’elle retirerait l’accès API à GPT-4.5 le 14 juillet, ce qui en fait le modèle le plus éphémère de l’histoire commerciale d’OpenAI.

Les raisons ? Le modèle était extrêmement coûteux à exécuter (75 $ par million de jetons d’entrée et 150 $ par million de jetons de sortie, contre 2,50 $ et 10 $ pour GPT-4o), il présentait, en outre, des problèmes de latence et ne disposait apparemment pas des principales protections de sécurité nécessaires à l’évolutivité. Malgré sa taille massive, GPT-4.5 n’a pas atteint le seuil de performance attendue dans plusieurs benchmarks clés de l’industrie.

La communauté des développeurs a réagi avec frustration sur Reddit, Hacker News et Discord d’OpenAI. « Se déprécier après 4 mois, c’est fou », a écrit un développeur. Un autre fondateur de startup a commenté anonymement : « Tuer un modèle si rapidement affecte la confiance. Notre application est développée et optimisée pour interfacer avec GPT-4.5. Changer de modèle ne consiste pas à le remplacer directement par un autre”.

Cet épisode soulève des questions délicates sur la maturité réelle de la technologie que les entreprises adoptent à la hâte.

Une étude révèle que 1,75 % des avis sur les applications mobiles AI font état d’hallucinations

Une étude scientifique publiée en août 2025 dans Scientific Reports a analysé 3 millions d’avis d’utilisateurs de 90 applications mobiles alimentées par l’IA et a révélé qu’environ 1,75 % des avis pertinents signalaient des problèmes indiquant des hallucinations LLM. Les utilisateurs ont décrit des frustrations avec « Mon IA me ment » et d’autres problèmes similaires où le système a généré des informations plausibles mais incorrectes.

Qui prend ses responsabilités en cas d’échec ?

Une question délicate et critique se pose ici : lorsqu’un LLM fournit des informations incorrectes à un client, qui est responsable ? L’entreprise qui l’a déployé ? Le fournisseur de modèles ? Personne? Cette zone grise juridique et éthique est un terrain dangereux que de nombreuses entreprises ignorent dans leur course à l’automatisation.

L’affaire Air Canada a créé un précédent troublant : le tribunal a conclu que l’entreprise était responsable des fausses informations fournies par son chatbot, affirmant qu’il n’y avait « aucune distinction significative » entre les informations sur le site Web et celles fournies par le chatbot. La société a tenté de faire valoir que le chatbot était une « entité juridique distincte », un argument que le tribunal a catégoriquement rejeté.

L’utilisation de LLM dans un contexte de Service Client demeure très pertinente et prometteuse, mais les limitations et les risques de la technologie actuelle impose une approche prudente et structurée que nous aborderons dans les articles suivants.

Echec et Mat pour l’IA et les Services Clients ? Quand connaître les règles ne suffit plus !

L’analogie entre une partie d’échecs et une interaction client-agent (humain) d’un service client, peut paraître surprenante mais en regardant de près les différents niveaux d’interactions, l’analogie peut être pertinente :

Si les objectifs de chaque interaction restent radicalement différents (échec et mat Vs CSat & solution à un problème), la montée progressive en complexité des 2 interactions présente en effet quelques similitudes :


Parallèles conceptuels

Partie d’échecsInteraction Call CenterSignification / Analogie
Stratégie d’ouvertureOuverture d’appel / accueil.Donner le ton et prendre le contrôle dès le début.
Combinaison tactiqueTraitement des objections.Réflexion rapide pour renverser les situations.
Précision en fin de partieClôture de l’appel.Assurer la résolution et la satisfaction avant de terminer.
SacrificeOffrir une compensation ou geste commercial.Perte à court terme pour un gain à long terme (fidélité ou rétention).
Échec et matSatisfaction du client et résolutionAtteindre le résultat escompté de manière efficace.
Erreur critiqueErreur de communication / violation des règlesUne erreur coûteuse qui affecte les résultats.
Pat (blocage)Impasse / escaladeAucune des deux parties n’atteint son objectif.
Pression du tempsPériodes de fort volume d’appelsDécisions sous tension ; Compromis entre l’efficacité et la précision.

Maintenant que le parallèle entre les 2 activités est clarifié, le comportement de l’IA sur ces interactions devient intéressant à observer :

Un exemple illustratif des limites des LLM (grands modèles de langage) provient d’expériences documentées avec les échecs.

En mars 2024, Chess.com a organisé une confrontation entre ChatGPT et Gemini de Google, où les deux systèmes pouvaient parfaitement expliquer les règles des échecs lorsqu’on leur demandait directement, mais ont ensuite violé ces mêmes règles à plusieurs reprises pendant le jeu. Les deux bots ont constamment tenté d’effectuer des mouvements illégaux, et lorsqu’ils ont été informés de l’erreur, ils ont continué à proposer des mouvements invalides.

Nikola Greb, un scientifique des données NLP et ancien champion d’échecs junior ELO 2000+, a joué plusieurs parties contre ChatGPT-4 en janvier 2024 et a documenté que le modèle jouait « comme un grand maître » dans les premiers coups d’ouverture, mais se détériorait considérablement au fur et à mesure que le jeu progressait. ChatGPT-4 a commencé à halluciner, proposant des mouvements impossibles même après avoir été averti. Greb a conclu que la note globale du système était inférieure à 1500, et a observé quelque chose de crucial : “Aucun apprentissage implicite des règles n’a eu lieu – ChatGPT-4 hallucine toujours aux échecs, et continue d’halluciner après l’avertissement sur l’hallucination. C’est quelque chose qui ne peut pas arriver à un humain.

Ce décalage entre ce qu’un LLM peut « dire » et ce qu’il peut « faire » révèle une limitation fondamentale : ils n’ont pas de véritables modèles mentaux du monde. Dans le contexte du service client, cela signifie qu’un bot peut parfaitement réciter la politique de l’entreprise mais l’appliquer de manière incorrecte dans des situations spécifiques, ou qu’il peut expliquer le fonctionnement d’un produit sans être en mesure de diagnostiquer un problème avec celui-ci.

Le tournoi d’échecs chatbot 2025

En janvier 2025, un tournoi d’échecs par chatbot diffusé sur la chaîne GothamChess a opposé le moteur d’échecs professionnel Stockfish à sept chatbots d’IA générative, dont ChatGPT, Gemini de Google et Grok de X. Les résultats ont été exactement ce à quoi on pouvait s’attendre lorsque les modèles de langage essaient de jouer aux échecs : des coups d’ouverture décents suivis de tentatives de plus en plus chaotiques pour contourner les lois du jeu. Le chatbot Snapchat a décidé que les pions pouvaient se déplacer latéralement comme une tour, et lorsque l’erreur a été signalée, il a refusé à plusieurs reprises de continuer à dire « Je suis désolé. Je ne peux pas m’engager dans une telle conversation. Gardons notre conversation respectueuse ».

Le problème de la mémoire et du contexte

Les LLM ont des limites de mémoire strictes. Bien que les modèles plus récents offrent des fenêtres de contexte plus larges, ils traitent toujours chaque conversation comme relativement isolée. Cela signifie qu’ils peuvent « oublier » des informations cruciales fournies au début d’une longue conversation, obligeant les clients à se répéter.

Nous verrons dans un des articles suivants comment éviter de mettre le client en échec tout en utilisant au mieux les capacités indéniables des IA…

Pourquoi les projets IA échouent – Le problème que personne ne veut voir!

Le piège de l’engouement pour l’IA

Nous vivons à une époque où il semble que l’intelligence artificielle doive être présente dans tous les recoins de nos organisations. Des startups aux multinationales, tout le monde parle de “transformation numérique” et “d’adoption de l’IA” comme s’il s’agissait de la solution magique à tous les défis auxquels sont confrontés les entreprises.

Cependant, cette pression pour mettre en oeuvre des solutions d’IA, génère un phénomène préoccupant: des projets technologiques sans valeur réelle voire des initiatives qui consomment des ressources mais n’apportent pas de bénéfices tangibles. C’est ce que nous pourrions appeler des projets IA “inutiles” – des mises en oeuvre qui semblent innovantes dans les présentations mais échouent à générer un impact réel.

Des études récentes confirment la nature de ce piège!
Une étude Gartner prévoit que d’ici 2026, les organisations abandonneront 60 % des projets d’IA non soutenus par des données prêtes pour l’IA.
D’après un communiqué publié par Gartner le 29 juillet 2024, au moins 30 % des projets de Generative AI (GenAI) seront abandonnés après la phase de preuve de concept et d’ici fin 2025, en raison de:

• la mauvaise qualité des données,
• des contrôles de risque insuffisants,
• des coûts croissants,
• un manque de value business clair (gartner.eu).

D’autres médias (The Journal, Technology Decisions…) confirment ce chiffre de 30 % de projets GenAI abandonnés avant 2026.

La cause profonde de l’échec : Fragmentation de la Connaissance

La différence entre le succès et l’échec ne réside pas dans la technologie elle-même, mais dans la façon dont nous connectons l’IA aux connaissances spécifiques de notre organisation.

La connaissance organisationnelle n’est pas un fichier que l’on peut télécharger dans un système. C’est un écosystème complexe où des décennies d’expérience, des décisions historiques, des modèles comportementaux spécifiques de vos clients et l’expérience tacite de vos équipes se combinent de manière subtile.

Le problème critique :

Dans la plupart des organisations, cette connaissance est fragmentée et dispersée. Une partie dans la tête des professionnels clés, une partie dans des documents parfois obsolètes, une partie dans des systèmes isolés, et enfin, une portion significative est simplement perdue lorsque les personnes changent de poste ou quittent l’entreprise; le problème se pose aussi de manière critique lors de réorganisations de divisions entières ou lors de fusions-acquisitions.

Sans une stratégie délibérée pour capturer, structurer et centraliser cette connaissance, toute initiative d’IA travaillera avec des informations incomplètes, erronées ou obsolètes et perdra son potentiel à générer une valeur différenciée.

Une réalité qui dérange:

Si un employé clé peut partir demain et emporter avec lui des connaissances critiques pour votre entreprise, votre organisation n’est pas prête pour l’IA. Elle est prête pour le chaos.

Le remède constitue le véritable avantage concurrentiel:

Connaissance Vs IA

La plupart des projets IA échouent parce qu’ils sont basés sur des informations génériques disponibles pour tous. N’importe quel concurrent peut accéder aux mêmes outils, aux mêmes jeux de données publics, aux mêmes meilleures pratiques.

La vraie valeur réside dans la connexion de l’IA avec la connaissance spécifique (clients, processus, fournisseurs, savoir faire des équipes) que seule votre organisation possède.

Ce qui différencie le succès de l’échec n’est pas ce que l’IA peut faire, mais ce que votre organisation sait ce qui peut être amélioré avec l’IA.

Dans un monde où tout le monde a accès aux mêmes outils d’IA, le véritable avantage concurrentiel réside dans la façon dont vous les alimentez avec des connaissances que vous seul possédez.

Connaître son savoir: un prérequis trop souvent ignoré!

La plupart des organisations se précipitent pour implémenter l’IA sans avoir résolu un paradoxe fondamental : elles ne savent pas vraiment ce qu’elles savent.

Les équipes de direction peuvent rarement articuler avec précision quelles sont leurs connaissances les plus critiques et où elles résident. Ce n’est pas la faute de la direction ; c’est le résultat de décennies d’accumulation organique de connaissances sans stratégie délibérée de gestion des connaissances.

Implémenter l’IA sur une base de connaissances désorganisée, c’est comme construire un gratte-ciel sur des fondations de sable. C’est techniquement possible, mais le résultat sera instable et coûteux à maintenir.

La connaissance comme pierre angulaire

Pour que l’IA génère une valeur réelle, elle a besoin d’accéder aux connaissances uniques de votre entreprise, et non à des informations génériques que n’importe quel concurrent peut obtenir. C’est là que réside l’avantage concurrentiel durable.

Mais avant d’en arriver là, il y a une étape fondamentale que beaucoup d’organisations négligent : la structuration des connaissances organisationnelles. Sans cette base solide, tout projet d’IA sera comme la construction d’un gratte-ciel sur du sable.

Que signifie structurer les connaissances ?

Il s’agit d’identifier, d’organiser et de documenter :

  • Les processus critiques qui fonctionnent réellement dans votre entreprise
  • Les décisions historiques et leurs résultats
  • L’expertise de vos employés clés
  • Les modèles de réussite et d’échec spécifiques à votre secteur
  • Les relations avec les clients, les fournisseurs et les parties prenantes

Par exemple, une entreprise de logistique qui a optimisé ses itinéraires pendant des décennies possède des connaissances inestimables sur les modèles de circulation, le comportement des conducteurs et l’efficacité opérationnelle. Ces informations structurées peuvent alimenter des algorithmes d’IA qui génèrent de réels avantages concurrentiels, très différents de l’utilisation d’une solution générique d’optimisation de tournées.

La question clé n’est pas « que peut faire l’IA ? », mais « qu’est-ce que notre organisation sait que nous pourrions améliorer avec l’IA ? »

Gouvernance : protéger pour donner du pouvoir

La mise en œuvre d’une IA responsable implique la mise en place de contrôles qui garantissent que la technologie accède exactement aux informations dont elle a besoin, au moment où elle en a besoin et qu’elle l’utilise de manière appropriée.

Cela comprend :

  • Classification de l’information : toutes les données n’ont pas la même valeur ou la même sensibilité
  • Accès granulaire : l’IA ne doit accéder qu’à ce qui est nécessaire à sa fonction spécifique
  • Traçabilité : être capable d’expliquer comment et pourquoi le système est parvenu à chaque décision
  • Limites claires : définir ce que le système peut et ne peut pas faire de manière autonome

La Gouvernance des Systèmes d’Intelligence Artificielle devient un sujet critique (Les publications à propos de l’EGoAI (l’Entreprise Governance of AI) suscitent de plus en plus d’intérêt, nous développerons ce point prochainement dans un article séparé.

Le cadre stratégique : définir avant de mettre en œuvre

Avant toute mise en œuvre technique, les organisations qui réussissent suivent ce processus :

1. Identifiez le problème spécifique

Non pas « nous avons besoin de l’IA », mais « nous devons réduire le temps de développement des produits de 20 % » ou « nous voulons identifier les opportunités de vente croisée avec plus de précision ».

2. Établir la portée

Quels processus, départements ou fonctions seront concernés ? Lesquels sont laissés de côté et pourquoi ?

3. Définir des résultats mesurables

Des indicateurs clairs qui permettent d’évaluer si la mise en œuvre fonctionne. Par exemple : « Augmenter la précision des prévisions de la demande de 75 % à 85 % » au lieu d’« Améliorer la planification ».

4. Calculez les avantages attendus

À la fois quantitatif (économies de coûts, augmentation du chiffre d’affaires) et qualitatif (amélioration de la satisfaction des employés, réduction des risques).

5. Cartographier les connaissances requises

De quelles informations organisationnelles spécifiques le système a-t-il besoin pour générer les résultats escomptés ?

Conclusion : l’IA comme amplificateur de connaissances

L’intelligence artificielle responsable ne remplace pas la connaissance humaine et ne travaille pas de manière isolée. Sa plus grande valeur réside dans l’amplification et l’amélioration des connaissances uniques que votre organisation a développées au fil du temps.

Le succès ne vient pas de la mise en œuvre de la technologie la plus avancée, mais de la connexion intelligente de cette technologie avec les connaissances spécifiques qui différencient votre entreprise de la concurrence.

Dans un monde où tout le monde a accès aux mêmes outils d’IA, le véritable avantage concurrentiel réside dans la façon dont vous les nourrissez avec les connaissances que vous seul possédez. Et cela nécessite une gestion délibérée, stratégique et responsable des connaissances et de la technologie.

Le problème n’est pas de savoir si votre entreprise a besoin de l’IA, mais si elle est prête à l’utiliser d’une manière qui génère une valeur réelle et durable.

Références:

https://www.gartner.com/en/newsroom/press-releases/2025-02-26-lack-of-ai-ready-data-puts-ai-projects-at-risk#:~:text=Above%20all%2C%20if%20the%20data,by%20AI%2Dready%20data.%E2%80%9D

technologydecisions.com.au

Confronté au double défi de partager la connaissance de votre entreprise et de disposer d’un outil performant pour la gestion des formations ? SHA a certainement une solution pour vous.

SHA est une plateforme qui combine des fonctionnalités de Gestion de l’Apprentissage avec des outils de Gestion de la Connaissance, soit pour utiliser les termes techniques couramment utilisés : SHA propose une solution qui fusionne des fonctionnalités LMS (Learning Management System) avec un KMS (Knowledge Management System)


La dernière version de SHA devient un Système de Gestion de Solutions (Solution Management Solution) un concept innovant, qui simplifie la gestion des connaissances et de l’apprentissage :

SMS est le résultat de la combinaison de KMS et LMS


La plateforme SHA s’adresse à toutes les entreprises qui gèrent au quotidien beaucoup d’informations et ont un besoin critique de s’assurer que leurs équipes ont rapidement et facilement accès à ces informations afin de les partager (clients, prospects, fournisseurs…).

Des entreprises qui considèrent à juste titre que la Connaissance fait partie de la Valeur Intrinsèque de l’entreprise et qu’il est capital de la gérer afin de partager le plus efficacement possible avec les personnes concernées.

Il est également nécessaire que les utilisateurs de ces informations puissent contribuer à l’amélioration de ces données en indiquant leur avis sur la pertinence de l’information fournie.

SHA associe à cette gestion de la connaissance des fonctionnalités avancée de Gestion de l’Apprentissage en orientant les utilisateurs vers des contenus que l’entreprise considère comme important pour effectuer leurs tâches de façon optimale (Coût, Qualité, Vélocité)

Les secteurs d’activité les plus consommateurs de ces outils sont ceux en général ceux qui interagissent avec les clients (Services Clients, Centre d’Appels…) mais toutes les divisions d’une entreprise qui cherche à optimiser sa performance opérationnelle sont concernées :

Nous avons établi, en échangeant longuement avec nos clients et prospects, un tableau non exhaustif des différents types de contenus et de leur volatilité dans le temps (facteur important pour la gestion du contenu)

Les documents mis en avant dans ce tableau (en vert) sont ceux que l’on retrouve les plus souvent cités comme contenus prioritaire dans les systèmes de KMS et LMS.


Tableau Statique
Catégorie Types de Documents Personnel Concerné Format Cycle de Vie
Politiques & Procédures Manuels des employés, SOPs, directives RH, Administration, Juridique, Affaires Générales PDF, Word (protégé) Moyen (mises à jour annuelles)
Contrats Contrats clients, accords fournisseurs Juridique, Ventes, Fournisseurs, Clients PDF (protégé) Définitif (rarement mis à jour)
Rapports Financiers Bilan, comptes de résultats, audits Personnel Financier, Administration XLS, PDF Moyen (mises à jour trimestrielles ou annuelles)
Matériel Marketing Brochures, campagnes, présentations Marketing, Ventes, Communication, Prospects PDF, PNG, PPT Court (mises à jour fréquentes)
Documents de Conception Plans, fichiers CAD, ébauches Conception, R&D CAD, PDF, propriétaire Court (mises à jour fréquentes)
Plans de Production Plannings, spécifications, logs de qualité Production, R&D, Clients XLS, Word Court (mises à jour fréquentes)
Dossiers Clients Entrées CRM, retours clients Personnel Service Client, Ventes, Clients Export base de données XLS Moyen (mises à jour périodiques)
Matériel de Formation Modules e-learning, guides d’intégration RH, Personnel Service, Affaires Générales PDF, Vidéo, PPT Moyen (révision tous les 1-3 ans)
Comptes-Rendus de Réunion Agendas, comptes-rendus, actions Affaires Générales, Administration, Toutes Équipes Word, PDF Court (cycles de projet spécifiques)
Dossiers Juridiques Rapports de conformité, dépôts de brevets Juridique, Personnel Financier, R&D PDF, Word Définitif (rarement mis à jour)
Mémos Internes Annonces, mises à jour, notes Administration, Tout le Personnel Email, PDF Court (utilisation unique)
Journaux de Service Rapports de maintenance, suivi des incidents Personnel Service, Production XLS, Word Moyen (mises à jour régulières)
Dossiers Fournisseurs Factures, journaux de livraison, contrats Fournisseurs, Personnel Financier, Administration PDF, XLS Moyen (mises à jour périodiques)
Dossiers Employés Évaluations, paie, formulaires de congé Personnel RH XLS, Word Moyen (mises à jour annuelles)
Rapports R&D Journaux d’expérimentation, rapports techniques R&D, Conception PDF, XLS Moyen (révision après projet ou annuelle)

La question que nos prospects nous posent le plus souvent est

Comment SHA parvient à être performant en fusionnant 2 activités qui la plupart du temps requiert l’utilisation de 2 plateformes distinctes. Comment SHA introduit des fonctionnalités LMS dans une plateforme KMS de gestion de contenu ?

C’est très simple, grâce à 3 facteurs principaux :

  • Considérer le contenu de formation comme un contenu « connaissance » standard. Et ceci même si l’on sait que le format, son cycle de vie et sa structure peut être différent d’un autre contenu.
  • Utiliser la dualité Contenu/Utilisateur qui est une des particularités de SHA. SHA gère les interactions entre le contenu et l’utilisateur, en ne perdant jamais de vue la pertinence du contenu du point de vue de l’utilisateur : Est-ce que cette information lui a permis d’accomplir la tâche qui lui est confiée ou nécessite-t-elle d’être améliorée ?
  • Considérer l’apprentissage plutôt que la formation. Les responsables opérationnels savent très bien que la Formation peut être sans effet alors que l’Apprentissage a un impact mesurable sur les opérations. Suivre une formation (en ligne ou en classe) n’aboutit pas toujours à une progression du niveau et ne résulte pas toujours à une amélioration des KPIs alors que l’apprentissage (avec les outils de contrôle et de suivi qualité fournis par SHA) permet de boucler la boucle et s’assurer que la formation apporte le bénéfice attendu.

Que votre organisation utilise déjà un LMS ou pas, SHA intègre très facilement le contenu destiné à l’apprentissage (du cours très structuré jusqu’au flash brief) et permet aux équipes de managers de s’assurer de la bonne acquisition (qualitativement et dans les temps impartis) du savoir.

Si vous utilisez déjà des outils de Gestion de Connaissance qui ne disposent pas des fonctionnalités de Gestion d’Apprentissage, SHA peut facilement intégrer votre contenu existant et immédiatement faciliter votre Gestion de Connaissance, et vous pourrez en plus bénéficier immédiatement des avantages d’une Gestion d’Apprentissage pour vos équipes.

Pour bénéficier de tous les avantages d’une gestion unifiée de votre Connaissance d’entreprise et de l’Apprentissage de vos équipes contactez nos experts, ils vous feront profiter de leur vaste expérience dans ce domaine !


SHA: un système de gestion des connaissances conçu et développé par des experts du service client qui ont apporté leur vision et leur expérience opérationnelle pour concevoir un système qui améliore l’expérience client, l’expérience du personnel et réduit le coût du service !

Pour plus d’informations sur la façon dont SHA peut transformer vos opérations, contactez-nous: 

/https://sha-saas.com/contact-us/

Gestion de la connaissance dans les organisations internationales 

Il est à présent reconnu que la mise en place d’une Gestion de la Connaissance en Entreprise joue un rôle critique dans la création de valeur, chaque équipe et chaque individu ayant un impact direct sur la performance de l’organisation. Ces effets bénéfiques prennent une autre dimension si l’on se place dans un contexte international, ce qui est de plus en plus le cas pour les entreprises.


Pour les organisations multinationales, la Gestion de Connaissance offre de multiples bénéfices qui contribuent à l’efficacité, à l’innovation et à la compétitivité globale de l’entreprise. Sans même évoquer le débat sur comment positionner le curseur de la centralisation, l’utilisation d’une plateforme commune pour la Gestion de Connaissance est primordiale.


Sans rentrer dans l’exhaustivité des bénéfices apportés, nous allons nous focaliser sur les avantages qu’apporte une Gestion Globale de la Connaissance d’Entreprise :

1) UNE ORGANISATION.

Bien que rarement perçus par les structures strictement locales, les bénéfices associes à une Gestion Globale de la Connaissance peut se décliner de la façon suivante :

  • Homogénéité des processus : tous les employés suivent les mêmes politiques et procédures, ce qui garantit l’uniformité et la qualité du produit/service.
  • Normalisation et meilleures pratiques : mise en œuvre facile de normes et de pratiques communes au niveau mondial.
  • « Local Touch » : l’utilisation d’une plateforme de gestion appropriée permet la « localisation » des connaissances, s’intégrant parfaitement dans le suivi et le « reporting ».

2) AMÉLIORATION DE L’INNOVATION : QUI SAIT PLUS et MIEUX, PARTAGE PLUS et MIEUX

En principe, les connaissances peuvent être créées de manière centralisée, mais leur amélioration se fera également de manière décentralisée, en fonction de l’expérience.

  • Optimisation des ressources : facilite l’identification et la mobilisation d’experts et de talents au niveau mondial pour résoudre des problèmes spécifiques ou des projets stratégiques.
  • Partage : Facilite l’échange d’idées, d’innovations et de meilleures pratiques entre les différentes parties de l’organisation, favorisant une culture d’apprentissage continu.
  • Collaboration mondiale : améliore la collaboration entre les équipes de différents pays, ce qui peut conduire à des solutions plus créatives et innovantes.
  • Économies d’échelle : réduire les coûts d’exploitation en consolidant les fonctions et les ressources, en éliminant les redondances et en tirant parti de la technologie.

3) ADAPTABILITÉ ET RAPIDITÉ DE RÉPONSE.

Si en local, la performance des outils numériques est critique pour leur acceptabilité par les équipes d’une entreprise, il apparait évident que ce facteur performance se retrouve encore plus sensible en environnement international. Un système de Gestion de Connaissance Global se doit de fournir :


  • Facilite l’adaptation aux changements de l’environnement commercial mondial d’une manière plus agile et cohérente.
  • Vitesse de diffusion : Permet la communication instantanée des changements apportés aux politiques, aux procédures ou à toute autre information pertinente.
  • Gestion de crise : Permet une réponse coordonnée et efficace aux situations de crise, en intégrant des protocoles et des plans d’action dans le système de gestion des connaissances.

4) DÉVELOPPEMENT ORGANISATIONNEL.

Le développement et la rétention active des personnes et des équipes est vital pour garantir la survie à long terme des entreprises, car ils leur permettront de s’adapter aux changements auxquels elles seront confrontées au fil du temps.


  • Formation et perfectionnement : facilite la mise en œuvre de programmes de formation et de perfectionnement professionnel, gérés collectivement ou individuellement, qui renforcent le perfectionnement professionnel.
  • Rétention des talents : aide à retenir les connaissances au sein de l’organisation, même en cas de roulement de personnel, en disposant d’une plateforme d’information et d’expérience.
  • Respect des différences culturelles et des spécificités locales sur  les modes et règles d’apprentissage. Cela est possible avec une plateforme de Gestion de la Connaissance d’Entreprise Globale.

5) CONTRÔLE ET SÉCURITÉ

Au même titre que la performance, les aspects contrôle et sécurité d’outils numériques réclament une vigilance totale en environnement global :

  • Gestion de la qualité : permet une supervision plus stricte et centralisée des processus de qualité, minimisant les risques et maximisant la conformité réglementaire.
  • Protection des données : Assure une gestion plus sûre et contrôlée des informations sensibles, conformément aux réglementations internationales en matière de protection des données.
  • Analyse centralisée : Améliore la capacité d’analyse et de surveillance de l’organisation grâce à des données consolidées, permettant une meilleure identification des tendances et des opportunités.

Pour plus d’information, contactez nous sur: /https://sha-saas.com/contact-us/