Se puede observar que los Servicios de Atención al Cliente (tanto internos como externalizados) poseen estudios que demuestran que «los clientes prefieren hablar con un humano antes que interactuar con robots de IA», pero aún así estos servicios de atención al cliente ofrecen cada vez más servicios basados en IA.
En efecto, los clientes prefieren interactuar con humanos, pero aun así siguen comprando productos y servicios a proveedores que se esfuerzan por reducir el coste humano ofreciendo soluciones de soporte basadas en IA:
¿Pero es realmente económico confiar la totalidad de las interacciones con los clientes a agentes de IA? ¿Sale realmente ganando el cliente con ello? ¿Tiene realmente posibilidad de elegir?

Obviamente es difícil convencer a un cliente de pagar un precio premium en el momento de la compra para poder interactuar más adelante con un humano si en el futuro tiene necesidad de ello.
Para seguir siendo competitivos, conviene encontrar formas de reducir el coste de funcionamiento del Servicio de Atención al Cliente sin degradar su calidad, apoyándose en herramientas que utilizan IA para impulsar la productividad de los agentes humanos.
¿Cuáles son los límites a considerar?
En el caso de interacciones básicas, simples, repetitivas y que no impliquen riesgos importantes, tales como:
- Riesgos financieros
- Deterioro de la reputación
- Riesgo de incumplimiento normativo
- Riesgos legales
estas interacciones pueden ser gestionadas por agentes de IA.
Por el contrario, en interacciones que requieren:
- Empatía para reducir el estrés del cliente.
- Clarificar la descripción del problema realizada por el cliente.
- Resolver problemas complejos con múltiples fuentes de información.
- Considerar diversas combinaciones de soluciones con decisiones que deben tomarse.
- Comprender los requisitos de cumplimiento (financieros, sanitarios, etc.) con un impacto crítico para el cliente y la empresa en términos de seguridad, protección y fiabilidad.
En estos casos, los humanos pueden intervenir de forma mucho más eficaz y a menor coste real.
¿Qué condiciones permiten que el humano sea realmente eficiente?
Sin embargo, debemos ser conscientes de que esta eficiencia con un coste controlado exige poner a disposición de los agentes herramientas adecuadas, entre ellas:
- Acceso a procesos actualizados.
- Acceso a referencias técnicas.
- Acceso a métodos de diagnóstico complejos (árboles de decisión, etc.).
- Protocolos de escalado claros.
- Protocolos de compensación/retención claros y fluidos.
- Contribución a la mejora continua de estas herramientas, mediante comentarios significativos por parte de los agentes.
Ciertamente hay casos en los que la IA aporta un valor real a los servicios de atención al cliente, por ejemplo:
Cuando la IA funciona… y cuando no
- Respuestas instantáneas a preguntas simples y no ambiguas que se repiten con frecuencia.
- Disponibilidad 24/7.
- Capacidad para gestionar picos de demanda.
- Gestión de solicitudes en varios idiomas.
Para tareas rutinarias bien definidas, la automatización es realmente útil.
El problema aparece cuando se intenta aplicar la misma lógica a todo el espectro del servicio al cliente. Situaciones excepcionales, problemas complejos, clientes frustrados o reclamaciones sensibles requieren empatía, flexibilidad y juicio humano, precisamente lo que la IA no siempre puede ofrecer hoy en día.
Un informe de McKinsey & Co. de marzo de 2025 mostró que el 71 % de las empresas utilizan ya IA generativa en al menos una función empresarial, pero que su adopción es notablemente menor en sectores altamente regulados: 63 % en el sector sanitario y 65 % en servicios financieros, precisamente donde los errores tienen mayor impacto.
Una propuesta de equilibrio
Tal vez la pregunta no debería ser «¿IA sí o no?», sino «¿cuánto IA y dónde?». Un enfoque híbrido inteligente podría ser:
- Utilizar la IA para filtrar y categorizar las solicitudes iniciales, reconociendo sus limitaciones.
- Automatizar realmente las tareas simples y repetitivas donde los errores tienen poco impacto.
- Establecer sistemas de verificación humana para respuestas críticas (manteniendo a los humanos en el circuito, como recomienda Red Hat).
- Facilitar acceso rápido —idealmente inmediato— a un agente humano cuando la situación lo requiera o cuando la IA exprese incertidumbre (teniendo en cuenta que uno de los problemas de los agentes de IA es reconocer que no pueden responder correctamente).
- Incluir avisos claros indicando cuándo la información ha sido generada por IA.
- Formar a los agentes humanos para trabajar con herramientas de IA que los potencien, no que los sustituyan.
- Medir el éxito desde la perspectiva del cliente, no desde la empresa: cuando el cliente tiene éxito, la empresa también; lo contrario rara vez es cierto.
- Ser transparentes sobre cuándo los clientes interactúan con IA y cuándo con humanos.
- Confiar en el espíritu crítico de los equipos, implicándolos directamente en la mejora de las soluciones ofrecidas a los clientes.
Esta larga lista podría resumirse en una recomendación principal:
poner a disposición de los equipos herramientas que utilicen IA y gestionen el conocimiento de la empresa, mejorándolo continuamente mediante una plataforma de gestión del conocimiento (KMS – Knowledge Management Systems).
La pregunta incómoda
Al final queda una reflexión delicada:
¿Las empresas adoptan la IA en el servicio al cliente porque es la mejor solución para los usuarios, o porque parece la mejor forma de proteger la rentabilidad?
¿Se trata de una verdadera innovación o de una optimización disfrazada de modernidad?
¿Y lo hacen siendo plenamente conscientes de las limitaciones técnicas reales de estos sistemas?
Los datos sugieren que no.
Cuando GPT-4 y GPT-4 Turbo, los modelos más precisos disponibles, alucinan alrededor del 3 % del tiempo; cuando modelos de razonamiento avanzado como O3 y O4-mini presentan tasas de alucinación del 33 % y 48 % respectivamente; cuando el modelo más grande y costoso de OpenAI tuvo que retirarse tras solo cuatro meses; y cuando los tribunales comienzan a responsabilizar a las empresas por la información incorrecta proporcionada por sus chatbots, todo ello sugiere que la industria está intentando correr antes de aprender a caminar.
Probablemente la respuesta varíe de una empresa a otra, pero el silencio sobre los estudios de satisfacción del cliente, sobre las tasas de abandono en los sistemas automatizados, sobre la cantidad de usuarios que buscan desesperadamente la opción “hablar con un humano”, y sobre los fallos técnicos reales y documentados de los LLM, sugiere que quizás no estemos haciendo las preguntas correctas.
La tecnología es una herramienta, no un objetivo.
Y una herramienta solo es útil si resuelve problemas reales para personas reales, y si funciona de manera fiable en el mundo real, no solo en pruebas de laboratorio.
Mientras las decisiones sobre IA en atención al cliente se sigan tomando en salas de juntas, analizando hojas de cálculo y presentaciones de proveedores tecnológicos, en lugar de hablar con clientes reales y comprender honestamente las limitaciones técnicas documentadas, seguiremos viendo implementaciones que priorizan la eficiencia empresarial por encima de la experiencia humana.
Y quizá lo más preocupante sea que seguiremos viendo empresas sorprendidas cuando sus sistemas de IA fallen, cuando sus clientes se frustren y cuando descubran que los ahorros a corto plazo pueden resultar muy costosos si se miden en términos de pérdida de reputación, confianza y fidelidad del cliente.




