Ce que l’IA ne peut pas résoudre dans les Universités.

(Si l’architecture de la connaissance n’est pas redéfinie d’abord)

Considérons les Universités comme étant des institutions du savoir et de la connaissance toutes sciences et spécialités confondues:

  • Les Universités créent le savoir et le génèrent.
  • Elles le partagent, l’enseignent et le transfèrent.
  • Elles l’améliorent en le confrontant à d’autres savoirs, à d’autres vues de la connaissance.

Et pourtant, de nombreuses organisations académiques ne disposent pas de leurs propres connaissances opérationnelles pleinement structurées.

Ce n’est pas une question d’attitude. C’est un problème d’architecture.

Le coût invisible

Dans The Social Economy : Unlocking Value and Productivity through Social Technologies (2012), le McKinsey Global Institute a estimé que les travailleurs du savoir passent environ 20 % de leur journée à chercher des informations internes ou à trouver quelqu’un capable de les aider à accomplir une tâche.

Pas pour exécuter mais pour identifier ce qui est nécessaire pour pouvoir exécuter.

Extrapolé à une université de taille moyenne, cela représente une charge de travail globale équivalente à celle de centaines de personnes dédiées à la reconstruction du contexte et à la localisation de précédents déjà existants au sein de l’institution.

Plus récemment, dans  le Magic Quadrant for Knowledge Management Systems (2023) et dans ses analyses sur la gouvernance des connaissances, Gartner souligne qu’une part importante du travail dans les organisations à forte intensité de connaissances dépend d’informations non structurées réparties à travers plusieurs systèmes.

En pratique, ces connaissances sont souvent dispersées dans :

  • Emails
  • Dossiers partagés (la gestion du partage restant très peu claire)
  • Documents non versionnés. (pas de mise à jour ou de gestion de l’obsolescence)
  • Mémoire personnelle (avec la volatilité qu’on lui connait…)

Il n’apparaît pas comme un élément budgétaire. Mais cela a un impact direct sur l’efficacité, la cohérence et le risque opérationnel.

L’illusion technologique

L’émergence de l’IA générative a suscité une attente compréhensible : si la technologie peut répondre à n’importe quelle question, le problème de la recherche d’informations internes devrait être considérablement réduit.

Cependant, des preuves récentes introduisent des nuances pertinentes.

Les  Work Trend Index 2023 et Work Trend Index 2024 de Microsoft montrent que, si l’IA accélère l’élicitation de la réponse initiale, le besoin de validation augmente lorsque l’information source est incomplète ou incohérente.

Parallèlement, l’article « Generative AI at Work » publié dans Harvard Business Review (2023) analyse comment l’utilisation de l’IA augmente la productivité individuelle, mais montre également l’importance de disposer d’informations structurées et fiables pour éviter toute refonte.

De plus, dans The Economic Potential of Generative AI : The Next Productivity Frontier (2023), McKinsey & Company estime qu’entre 60 % et 70 % de l’impact potentiel de l’IA générative dépend de la qualité et de la structuration des connaissances organisationnelles sous-jacentes.

En termes stratégiques :

L’IA ne remplace pas une architecture de gestion de connaissance robuste. Cela l’amplifie — pour le meilleur ou pour le pire.

Investir dans l’IA de manière désorganisée équivaut à accélérer des processus déjà inefficaces.

Une décision structurelle

Les institutions qui réalisent des retours tangibles grâce à l’IA n’ont pas commencé par la technologie.

Ils ont commencé par identifier, structurer et gouverner leurs connaissances organisationnelles.

Des rapports industriels tels que How to Measure the ROI of Knowledge Management (Bloomfire, 2024) et les analyses de ROI publiées par Stravito (2024) montrent des réductions significatives du temps passé à la recherche et à la validation des informations après la mise en place de systèmes formels de gestion des connaissances.

La question n’est donc pas exclusivement technologique.

C’est une décision d’architecture organisationnelle qui conditionne le retour sur tout investissement ultérieur dans l’IA.

Un débat stratégique en attente

Dans de nombreuses universités, la conversation actuelle tourne autour des outils d’IA à adopter.

Cependant, la question précédente peut être une autre :

Les connaissances institutionnelles sont-elles structurées, gouvernées et prêtes à être amplifiées par l’IA ?

La réponse à cette question déterminera non seulement l’efficacité opérationnelle, mais aussi la cohérence institutionnelle et la capacité à prendre des décisions en fonction de la connaissance de soi.

Dans quels cas les agents IA peuvent satisfaire les attentes des clients? Quelle sont les bonnes approches, aujourd’hui et demain?

On observe que les Services Clients (internalisés et externalisés -BPO) affichent souvent des études démontrant que « les clients préfèrent parler à l’humain plutôt qu’interagir avec des robots d’IA », mais ces Services Clients proposent pourtant de plus en plus de services IA.

Les clients préfèrent effectivement interagir avec des humains, mais ils achètent pourtant des produits et des services à des vendeurs qui s’efforcent de réduire le coût humain en proposant des solutions de support IA.


Mais confier la totalité des interactions clients à des agents AI est il vraiment économique? Est-ce que le client sort vraiment gagnant, a-t-il vraiment le choix?

On comprend facilement qu’il est difficile de convaincre un client de payer un premium à l’achat pour pouvoir interagir avec un humain en cas de besoin de support éventuel,

Pour rester compétitif, il convient de trouver des moyens de rendre le fonctionnement du Service Client moins onéreux sans en dégrader la qualité en s’appuyant d’outils utilisant l’IA afin de booster la productivité des agents humains.

Quelles sont les limites à envisager?


Dans le cas d’interactions de base, simples, répétitives et n’impliquant pas de risques majeurs tels que:

  • Risques financiers
  • Dégradation de réputation
  • Risque de non-conformité
  • Risques légaux  

Ces interactions peuvent être gérée par des agents IA.


Par contre lors d’interactions nécessitant:

  • De l’empathie afin de réduire le stress du client.
  • De clarifier la description du problème faite par le client.  
  • De résoudre des problèmes complexes multi-sources.
  • D’envisager diverses combinaisons de solutions avec des choix à faire
  • Une compréhension des conformités en jeux (financières, liées à la santé…) avec un impact critique pour le client et l’entreprise, en terme de sûreté, sécurité…

Alors les humains peuvent interagir de manière beaucoup moins coûteuse et efficace.


Quelles contraintes pour rendre l’humain performant?

Restons toutefois conscient que cette efficacité à coût maîtrisé impose de mettre à disposition des agents des outils performants:

  • Accès aux processus à jour.
  • Accès aux références techniques.
  • Accès aux méthodes de diagnostiques complexes (arbres de décisions…).
  • Protocoles d’escalade.
  • Protocoles de compensation clairs et fluides.
  • Contribution à l’amélioration quotidienne de ces outils en fournissant des commentaires significatifs.

Quand l’IA fonctionne… Et quand ce n’est pas le cas

Soyons justes : il y a des cas où l’IA apporte une réelle valeur aux Services Clients.

  • Réponses instantanées aux questions simples et non-anbigües fréquemment posées,
  • disponibilité 24h/24 et 7j/7.
  • capacité à gérer les pics de demande.
  • demandes en plusieurs langues.

Pour les tâches de routine bien définies, l’automatisation peut être vraiment utile.

Le problème se pose lorsque vous essayez d’appliquer la même logique à l’ensemble du spectre du service client. Des situations exceptionnelles, des problèmes complexes, des clients frustrés ou des plaintes sensibles nécessitent de l’empathie, de la flexibilité et un jugement humain – précisément ce que l’IA  ne peut pas toujours offrir aujourd’hui.

Un rapport de McKinsey & Co. de mars 2025 a montré que 71 % des entreprises utilisent désormais l’IA générative dans au moins une fonction commerciale, mais que l’adoption est nettement plus faible dans les secteurs hautement réglementés : 63 % dans le secteur de la santé et 65 % dans les services financiers, précisément là où les erreurs ont le plus d’impact.


Une proposition d’équilibre

Peut-être que la question ne devrait pas être « IA oui ou non ? », mais « combien d’IA et où ? ». Une approche hybride intelligente serait :

  • Utiliser l’IA pour filtrer et catégoriser les requêtes initiales, en reconnaissant leurs limites
  • Automatiser véritablement les tâches simples et répétitives où les erreurs ont peu d’impacts.
  • Mettre en place des systèmes de vérification humaine pour les réponses critiques (en gardant les humains dans la boucle, comme recommandé par Red Hat)
  • Faciliter l’accès rapide (instantanée ?) à un humain lorsque la situation l’exige ou lorsque l’IA exprime une incertitude (sachant qu’un des problèmes des agents IA est d’admettre qu’ils ne sont pas en mesure de répondre correctement…voir nos publications précédentes)
  • Inclure des avertissements clairs indiquant quand les informations sont générées par l’IA
  • Former des agents humains à travailler avec des outils d’IA qui les responsabilisent, et non les remplacent
  • Mesurer le succès du point de vue du client au premier plan, et pas celui de l’entreprise, le succès pour le client entraîne forcément celui de l’entreprise. L’inverse est rarement vrai…
  • Etre transparent sur le moment où les clients interagissent avec l’IA et quand avec les humains.
  • Faire confiance à l’esprit critique de vos équipes en les impliquant directement dans l’amélioration des solutions apportées aux clients.

On peut résumer cette longue liste en préconisant de mettre à disposition de vos équipes des outils qui utilisent l’IA et gèrent la connaissance de votre entreprise tout en l’améliorant avec une plateforme de Gestion de Connaissance – KMS (Knowledge Management Systems)


La question qui dérange

En fin de compte, une réflexion délicate demeure : les entreprises adoptent-elles l’IA dans le service client parce que c’est la meilleure solution pour leurs utilisateurs, ou parce que cela semble la solution pour protéger la profitabilité ? S’agit-il d’une véritable innovation ou d’une optimisation déguisée en modernité ?

Et le font-ils en toute connaissance de cause des limites techniques réelles de ces systèmes ? Les données suggèrent que non. Quand GPT-4 et GPT-4 Turbo, les modèles les plus précis disponibles, hallucinent 3 % du temps ; lorsque des modèles de raisonnement avancés tels que O3 et O4-mini hallucinent respectivement 33 % et 48 % du temps ; lorsque le modèle le plus grand et le plus cher d’OpenAI doit être retiré après seulement 4 mois ; Lorsque les tribunaux commencent à tenir les entreprises responsables des fausses informations fournies par leurs chatbots, tout cela suggère que l’industrie tente de courir avant d’apprendre à marcher.

La réponse varie probablement d’une entreprise à l’autre, mais le silence assourdissant sur les études de satisfaction client, sur les taux d’abandon dans les systèmes automatisés, sur le nombre d’utilisateurs cherchant désespérément l’option « parler à un humain » et sur les défaillances techniques réelles et documentées des LLM, suggère que nous ne nous posons peut-être pas les bonnes questions.

La technologie est un outil, pas un objectif. Et un outil n’est utile que s’il résout les problèmes réels des vraies personnes qui l’utilisent, et s’il fonctionne de manière fiable dans le monde réel, et pas seulement dans les benchmarks de laboratoire.

Tant que les décisions concernant l’IA dans le service client seront prises dans les salles de conseil en examinant des feuilles de calcul et des présentations commerciales de fournisseurs de technologie, plutôt qu’en discutant avec de vrais clients et avec une compréhension honnête des limites techniques documentées, nous continuerons à voir des mises en œuvre qui privilégient l’efficacité de l’entreprise plutôt que l’expérience humaine.

Et peut-être plus inquiétant encore, nous continuerons à voir des entreprises surprises lorsque leurs systèmes d’IA échouent, lorsque leurs clients deviennent frustrés et lorsqu’elles découvrent que les économies à court terme peuvent être très coûteuses lorsqu’elles se mesurent à la perte de réputation, de confiance et de fidélité des clients.