¿En qué casos los agentes de IA pueden satisfacer las expectativas de los clientes? ¿Cuál es el enfoque adecuado, hoy y mañana?

Se puede observar que los Servicios de Atención al Cliente (tanto internos como externalizados) poseen estudios que demuestran que «los clientes prefieren hablar con un humano antes que interactuar con robots de IA», pero aún así estos servicios de atención al cliente ofrecen cada vez más servicios basados en IA.

En efecto, los clientes prefieren interactuar con humanos, pero aun así siguen comprando productos y servicios a proveedores que se esfuerzan por reducir el coste humano ofreciendo soluciones de soporte basadas en IA:

¿Pero es realmente económico confiar la totalidad de las interacciones con los clientes a agentes de IA? ¿Sale realmente ganando el cliente con ello? ¿Tiene realmente posibilidad de elegir?

Obviamente es difícil convencer a un cliente de pagar un precio premium en el momento de la compra para poder interactuar más adelante con un humano si en el futuro tiene necesidad de ello.

Para seguir siendo competitivos, conviene encontrar formas de reducir el coste de funcionamiento del Servicio de Atención al Cliente sin degradar su calidad, apoyándose en herramientas que utilizan IA para impulsar la productividad de los agentes humanos.

¿Cuáles son los límites a considerar?

En el caso de interacciones básicas, simples, repetitivas y que no impliquen riesgos importantes, tales como:

  • Riesgos financieros
  • Deterioro de la reputación
  • Riesgo de incumplimiento normativo
  • Riesgos legales

estas interacciones pueden ser gestionadas por agentes de IA.

Por el contrario, en interacciones que requieren:

  • Empatía para reducir el estrés del cliente.
  • Clarificar la descripción del problema realizada por el cliente.
  • Resolver problemas complejos con múltiples fuentes de información.
  • Considerar diversas combinaciones de soluciones con decisiones que deben tomarse.
  • Comprender los requisitos de cumplimiento (financieros, sanitarios, etc.) con un impacto crítico para el cliente y la empresa en términos de seguridad, protección y fiabilidad.

En estos casos, los humanos pueden intervenir de forma mucho más eficaz y a menor coste real.

¿Qué condiciones permiten que el humano sea realmente eficiente?

Sin embargo, debemos ser conscientes de que esta eficiencia con un coste controlado exige poner a disposición de los agentes herramientas adecuadas, entre ellas:

  • Acceso a procesos actualizados.
  • Acceso a referencias técnicas.
  • Acceso a métodos de diagnóstico complejos (árboles de decisión, etc.).
  • Protocolos de escalado claros.
  • Protocolos de compensación/retención claros y fluidos.
  • Contribución a la mejora continua de estas herramientas, mediante comentarios significativos por parte de los agentes.

Ciertamente hay casos en los que la IA aporta un valor real a los servicios de atención al cliente, por ejemplo:

Cuando la IA funciona… y cuando no

  • Respuestas instantáneas a preguntas simples y no ambiguas que se repiten con frecuencia.
  • Disponibilidad 24/7.
  • Capacidad para gestionar picos de demanda.
  • Gestión de solicitudes en varios idiomas.

Para tareas rutinarias bien definidas, la automatización es realmente útil.

El problema aparece cuando se intenta aplicar la misma lógica a todo el espectro del servicio al cliente. Situaciones excepcionales, problemas complejos, clientes frustrados o reclamaciones sensibles requieren empatía, flexibilidad y juicio humano, precisamente lo que la IA no siempre puede ofrecer hoy en día.

Un informe de McKinsey & Co. de marzo de 2025 mostró que el 71 % de las empresas utilizan ya IA generativa en al menos una función empresarial, pero que su adopción es notablemente menor en sectores altamente regulados: 63 % en el sector sanitario y 65 % en servicios financieros, precisamente donde los errores tienen mayor impacto.

Una propuesta de equilibrio

Tal vez la pregunta no debería ser «¿IA sí o no?», sino «¿cuánto IA y dónde?». Un enfoque híbrido inteligente podría ser:

  • Utilizar la IA para filtrar y categorizar las solicitudes iniciales, reconociendo sus limitaciones.
  • Automatizar realmente las tareas simples y repetitivas donde los errores tienen poco impacto.
  • Establecer sistemas de verificación humana para respuestas críticas (manteniendo a los humanos en el circuito, como recomienda Red Hat).
  • Facilitar acceso rápido —idealmente inmediato— a un agente humano cuando la situación lo requiera o cuando la IA exprese incertidumbre (teniendo en cuenta que uno de los problemas de los agentes de IA es reconocer que no pueden responder correctamente).
  • Incluir avisos claros indicando cuándo la información ha sido generada por IA.
  • Formar a los agentes humanos para trabajar con herramientas de IA que los potencien, no que los sustituyan.
  • Medir el éxito desde la perspectiva del cliente, no desde la empresa: cuando el cliente tiene éxito, la empresa también; lo contrario rara vez es cierto.
  • Ser transparentes sobre cuándo los clientes interactúan con IA y cuándo con humanos.
  • Confiar en el espíritu crítico de los equipos, implicándolos directamente en la mejora de las soluciones ofrecidas a los clientes.

Esta larga lista podría resumirse en una recomendación principal:
poner a disposición de los equipos herramientas que utilicen IA y gestionen el conocimiento de la empresa, mejorándolo continuamente mediante una plataforma de gestión del conocimiento (KMS – Knowledge Management Systems).


La pregunta incómoda

Al final queda una reflexión delicada:
¿Las empresas adoptan la IA en el servicio al cliente porque es la mejor solución para los usuarios, o porque parece la mejor forma de proteger la rentabilidad?

¿Se trata de una verdadera innovación o de una optimización disfrazada de modernidad?

¿Y lo hacen siendo plenamente conscientes de las limitaciones técnicas reales de estos sistemas?

Los datos sugieren que no.

Cuando GPT-4 y GPT-4 Turbo, los modelos más precisos disponibles, alucinan alrededor del 3 % del tiempo; cuando modelos de razonamiento avanzado como O3 y O4-mini presentan tasas de alucinación del 33 % y 48 % respectivamente; cuando el modelo más grande y costoso de OpenAI tuvo que retirarse tras solo cuatro meses; y cuando los tribunales comienzan a responsabilizar a las empresas por la información incorrecta proporcionada por sus chatbots, todo ello sugiere que la industria está intentando correr antes de aprender a caminar.

Probablemente la respuesta varíe de una empresa a otra, pero el silencio sobre los estudios de satisfacción del cliente, sobre las tasas de abandono en los sistemas automatizados, sobre la cantidad de usuarios que buscan desesperadamente la opción “hablar con un humano”, y sobre los fallos técnicos reales y documentados de los LLM, sugiere que quizás no estemos haciendo las preguntas correctas.

La tecnología es una herramienta, no un objetivo.
Y una herramienta solo es útil si resuelve problemas reales para personas reales, y si funciona de manera fiable en el mundo real, no solo en pruebas de laboratorio.

Mientras las decisiones sobre IA en atención al cliente se sigan tomando en salas de juntas, analizando hojas de cálculo y presentaciones de proveedores tecnológicos, en lugar de hablar con clientes reales y comprender honestamente las limitaciones técnicas documentadas, seguiremos viendo implementaciones que priorizan la eficiencia empresarial por encima de la experiencia humana.

Y quizá lo más preocupante sea que seguiremos viendo empresas sorprendidas cuando sus sistemas de IA fallen, cuando sus clientes se frustren y cuando descubran que los ahorros a corto plazo pueden resultar muy costosos si se miden en términos de pérdida de reputación, confianza y fidelidad del cliente.

La realidad técnica: los LLM no son tan brillantes como parecen

Más allá de las noticias, un día si y otro también, sobre los avances espectaculares de la IA, la realidad de los grandes modelos (LLM) presenta limitaciones importantes, que rara vez se mencionan.

Alucinaciones: el talón de Aquiles persistente

Uno de los problemas más graves es que los LLM pueden ‘alucinar’ información y quedarse tan «panchos». Estos sistemas inventan datos, citas o hechos que parecen completamente creíbles pero que son totalmente falsos. Un estudio de Vectara reveló que los modelos más precisos, GPT-4 y GPT-4 Turbo, alucinan aproximadamente el 3% del tiempo cuando resumen textos, mientras que otros modelos alcanzaban tasas de error del 27%.

En el servicio al cliente, esto tiene consecuencias reales y costosas:

  • En febrero de 2024 Air Canada fue obligada por un tribunal canadiense a pagar una indemnización a un cliente después de que su «agente virtual» inventara una política de tarifas por duelo que no existía. Afirmó con confianza que los clientes podían solicitar descuentos retroactivamente hasta 90 días después de la emisión del billete, lo cual es completamente falso según la política real de la empresa.
  • DPD, una empresa de logística europea, tuvo que desactivar parte de su «agente virtual» después de que comenzara a insultar a los clientes y a describir a la empresa como ‘el peor servicio de entrega del mundo’.
  • Virgin Money también se vio obligado a disculparse después de que su «agente virtual» reprendiera a un usuario por utilizar la palabra ‘virgen’.
  • Finalmente, Cursor, una startup tecnológica estadounidense, tuvo que limitar los daños cuando su «agente virtual» informó a los clientes de un cambio radical en su política de uso que era completamente ficticio.»

La paradoja de los modelos de razonamiento avanzados

Paradójicamente, los modelos de razonamiento más avanzados, que utilizan enfoques de ‘cadena de pensamiento’ para descomponer problemas complejos en pequeñas partes, parecen alucinar más a menudo que los LLM ordinarios, según el análisis de Vectara. OpenAI reconoció en un informe sobre el rendimiento de sus últimos modelos de razonamiento que o1 alucinó el 16% del tiempo al sintetizar información pública sobre personas, mientras que sus modelos o3 y o4-mini alucinaron el 33% y el 48% del tiempo, respectivamente.

Matemáticas básicas y razonamiento lógico

Irónicamente, mientras que las empresas venden estos sistemas como ‘superinteligencias’, los LLM tienen dificultades notables con tareas que cualquier alumno de escuela primaria podría resolver. El razonamiento matemático básico era un punto débil, lo cual es problemático cuando los clientes hacían preguntas sobre descuentos, fechas de garantía o cálculos de costos.

¿Cómo gestionar este riesgo y tener total confianza en sus herramientas que utilizan IA?

En SHA hemos identificado precauciones y métodos a seguir con el fin de sacar el mejor partido de las capacidades de la IA (tanto para los servicios de atención al cliente como en todos los ámbitos que gestionan información crítica) y compartiremos estos elementos en el último de los 5 artículos que publicamos al respecto.

¡Estén atentos!

¿Están suficientemente desarrollados los modelos de IA para afrontar los desafíos del servicio al cliente?

La brecha entre la teoría y la realidad

Las empresas tecnológicas comunican regularmente rendimientos impresionantes como «95% de precisión», «supera a los humanos en la prueba X». Pero estas pruebas académicas a menudo no reflejan la complejidad del mundo real. Un LLM puede obtener excelentes resultados en conjuntos de datos específicos y fracasar lamentablemente frente a casos de uso reales con ambigüedad, matices culturales o situaciones que requieren sentido común.

El fracaso de GPT-4.5: lanzado en febrero, retirado en julio

Uno de los casos más reveladores de 2025 ha sido el de GPT-4.5, el modelo más grande jamás creado hasta esa fecha por OpenAI. Lanzado en febrero de 2025 bajo el nombre en clave «Orion», fue entrenado utilizando más potencia de cálculo y datos que cualquier otro modelo anterior de la compañía. Sin embargo, en abril de 2025, solo dos meses después de su lanzamiento, OpenAI anunció que retiraría el acceso API a GPT-4.5 el 14 de julio, convirtiéndolo en el modelo más efímero de la historia comercial de OpenAI.

¿Las razones? El modelo era extremadamente costoso de ejecutar (75 $ por millón de tokens de entrada y 150 $ por millón de tokens de salida, frente a 2,50 $ y 10 $ para GPT-4o), presentaba, además, problemas de latencia y aparentemente no disponía de las principales protecciones de seguridad necesarias para la escalabilidad. A pesar de su tamaño masivo, GPT-4.5 no alcanzó el umbral de rendimiento esperado en varios benchmarks clave de la industria.

La comunidad de desarrolladores reaccionó con frustración en Reddit, Hacker News y Discord de OpenAI. «Quedar obsoleto después de 4 meses es una locura», escribió un desarrollador. Otro fundador de startup comentó anónimamente: «Eliminar un modelo tan rápidamente afecta la confianza. Nuestra aplicación está desarrollada y optimizada para interactuar con GPT-4.5. Cambiar de modelo no consiste en reemplazarlo directamente por otro».

Este episodio plantea preguntas delicadas sobre la madurez real de la tecnología que las empresas adoptan apresuradamente.

Un estudio revela que el 1,75% de las reseñas sobre aplicaciones móviles de IA mencionan alucinaciones

Un estudio científico publicado en agosto de 2025 en Scientific Reports analizó 3 millones de reseñas de usuarios de 90 aplicaciones móviles impulsadas por IA y reveló que aproximadamente el 1,75% de las reseñas relevantes reportaban problemas que indicaban alucinaciones de LLM. Los usuarios describieron frustraciones con «Mi IA me miente» y otros problemas similares donde el sistema generó información plausible pero incorrecta.

¿Quién asume la responsabilidad en caso de fallo?

Aquí se plantea una pregunta delicada y crítica: cuando un LLM proporciona información incorrecta a un cliente, ¿quién es responsable? ¿La empresa que lo desplegó? ¿El proveedor de modelos? ¿Nadie? Esta zona gris jurídica y ética es un terreno peligroso que muchas empresas ignoran en su carrera hacia la automatización.

El caso de Air Canada creó un precedente inquietante: el tribunal concluyó que la empresa era responsable de la información falsa proporcionada por su chatbot, afirmando que no había «ninguna distinción significativa» entre la información del sitio web y la proporcionada por el chatbot. La compañía intentó argumentar que el chatbot era una «entidad jurídica separada», un argumento que el tribunal rechazó categóricamente.

El uso de LLM en un contexto de Servicio al Cliente sigue siendo muy pertinente y prometedor, pero las limitaciones y los riesgos de la tecnología actual imponen un enfoque prudente y estructurado que abordaremos en los próximos artículos.

SHA anuncia el acceso a su demo en linea

Nos complace anunciar que la versión Demo de INTRA ya está disponible en línea.

INTRA permite a las organizaciones ampliar y centralizar el conocimiento, garantizando su aplicación eficaz en operaciones, formación y gestión de la calidad.

Al transformar el conocimiento en información accionable, INTRA ayuda a los equipos a mejorar la consistencia, la eficiencia operativa y la experiencia del cliente, manteniendo al mismo tiempo el control sobre los procesos y los resultados.

Solicite acceso y descubra las principales funcionalidades de INTRA a través de nuestra sección Demo.

Para más información, póngase en contacto con mc@sha-saas.com.

¿Jaque mate para el servicio al cliente? ¡Cuando conocer las reglas ya no es suficiente!

Ya sé que puede parecer algo extraño comparar una partida de ajedrez con una interacción de servicio al cliente, sin embargo, cuando se examina de cerca la estructura y el desarrollo de ambos, la analogía resulta sorprendentemente reveladora.

Aunque sus objetivos difieren radicalmente —el jaque mate frente a la satisfacción del cliente y la resolución del problema— ambos siguen una escalada similar en complejidad a medida que la interacción avanza.

Paralelos conceptuales

Partida de ajedrezInteracción en Call CenterSignificación / Analogía
Estrategia de aperturaApertura de la llamada / saludoMarcar el tono y tomar el control desde el inicio.
Combinación tácticaManejo de objecionesPensamiento rápido para revertir situaciones.
Precisión en final de partidaCierre de la llamadaAsegurar la resolución y la satisfacción antes de finalizar.
SacrificioOfrecer una compensación o gesto comercialPérdida a corto plazo para un beneficio a largo plazo (fidelización o retención).
Jaque mateSatisfacción del cliente y resoluciónAlcanzar el resultado esperado de manera eficaz.
Error críticoError de comunicación / violación de reglasUn error costoso que impacta en los resultados.
TablasEstancamiento / escaladaNinguna de las dos partes logra su objetivo.
Presión del tiempoPeríodos de alto volumen de llamadasDecisiones bajo tensión; equilibrio entre eficiencia y precisión.

Ahora que el paralelismo entre ambas actividades está claro, es muy interesante observar el comportamiento de la IA en cada una de estas interacciones:

Un ejemplo ilustrativo de las limitaciones de los LLM (modelos de lenguaje de gran tamaño) proviene de experimentos documentados con el ajedrez.

En marzo de 2024, Chess.com organizó un enfrentamiento entre ChatGPT y Gemini de Google, donde ambos sistemas podían explicar perfectamente las reglas del ajedrez cuando se les preguntaba directamente, pero luego violaban esas mismas reglas repetidamente durante la partida. Ambos bots intentaron constantemente realizar movimientos ilegales y, cuando se les informaba del error, continuaban proponiendo jugadas inválidas.

Nikola Greb, científico de datos especializado en PLN y antiguo campeón juvenil de ajedrez con ELO superior a 2000, jugó varias partidas contra ChatGPT-4 en enero de 2024 y documentó que el modelo jugaba “como un gran maestro” en los primeros movimientos de la apertura, pero se deterioraba significativamente a medida que avanzaba la partida. ChatGPT-4 comenzó a alucinar, generando movimientos imposibles incluso después de haber sido advertido. Greb concluyó que la calificación global del sistema estaba por debajo de 1500 y observó algo crucial: “No ha habido aprendizaje implícito de las reglas: ChatGPT-4 sigue alucinando en el ajedrez y continúa alucinando incluso después de la advertencia sobre la alucinación. Esto es algo que no puede ocurrirle a un humano”.

Esta desconexión entre lo que un LLM puede “decir” y lo que puede “hacer” revela una limitación fundamental: no poseen modelos mentales reales del mundo. En el contexto del servicio al cliente, esto significa que un bot puede recitar perfectamente la política de una empresa pero aplicarla incorrectamente en situaciones específicas, o puede explicar cómo funciona un producto sin ser capaz de diagnosticar un problema con él.

El Torneo de Ajedrez de Chatbots 2025

En enero de 2025, un torneo de ajedrez entre chatbots emitido en el canal de GothamChess enfrentó al motor profesional de ajedrez Stockfish contra siete chatbots de IA generativa, incluidos ChatGPT, Gemini de Google y Grok de X. Los resultados fueron exactamente lo que cabría esperar cuando modelos de lenguaje intentan jugar al ajedrez: aperturas decentes seguidas de intentos cada vez más caóticos de saltarse las reglas del juego. El chatbot de Snapchat decidió que los peones podían moverse lateralmente como una torre, y cuando se le señaló el error, se negó repetidamente a continuar, diciendo: “Lo siento. No puedo participar en este tipo de conversación. Mantengamos nuestra conversación respetuosa”.

El problema de la memoria y el contexto

Los LLM tienen límites estrictos de memoria. Aunque los modelos más recientes ofrecen ventanas de contexto más amplias, aún tratan cada conversación como relativamente aislada. Esto significa que pueden “olvidar” información crucial proporcionada al inicio de una conversación larga, obligando a los clientes a repetirse. .

En uno de los siguientes artículos, veremos cómo evitar poner al cliente en una situación de fracaso mientras aprovechamos al máximo las capacidades innegables de la IA…

¿Por qué las empresas se lanzan de cabeza a la IA y los LLM? ¿Lo hacen realmente por buenas razones (desde una perspectiva de negocio?

La inteligencia artificial irrumpió en los servicios de atención al cliente a una velocidad increíble. Chatbots, asistentes virtuales y sistemas automatizados aparecen por todas partes en webs y aplicaciones, prometiendo transformar por completo la experiencia del usuario. Pero vale la pena preguntarse: ¿las empresas toman esta decisión basándose en datos sólidos, o simplemente están siguiendo una moda?

El encanto del ahorro inmediato

Seamos sinceros: el factor económico es el gran protagonista. Automatizar la atención al cliente puede reducir mucho los costes operativos. Un chatbot no necesita vacaciones, no pide aumentos de sueldo y puede atender a miles de usuarios al mismo tiempo. Para un director financiero, la ecuación parece obvia.

Pero esta visión a corto plazo pasa por alto varios costes ocultos: desarrollar e implementar sistemas de IA realmente fiables, mantenerlos en funcionamiento, preparar equipos que combinen personas y tecnología, y sobre todo, asumir el impacto en nuestra reputación cuando la herramienta falla o frustra a los clientes… algo que los medios se apresuran a destacar. Bueno no hacen falta los medios: todos tenemos experiencias con IVRs y bots cuando menos susceptibles de mejora….


El miedo a quedarse atrás

En el mundo corporativo existe un miedo constante a quedarse fuera del tren de la innovación. Cuando los competidores presumen de sus avances en IA, muchos equipos directivos sienten presión para “hacer algo con inteligencia artificial”. La IA se convierte en un argumento de marketing, una casilla que marcar en la presentación anual de resultados: si no tenemos IA estamos fuera.

Esta adopción apresurada —más reactiva que estratégica— explica por qué tantas implantaciones son improvisadas: interfaces confusas, bots incapaces de entender peticiones básicas, sistemas que generan más frustración que ayuda y equipos internos poco convencidos. La tecnología se despliega no porque resuelva un problema real, sino porque “hay que demostrar que también la usamos”.


¿Alguien le preguntó a los clientes?

Aquí llega el punto más sensible. ¿Cuántas empresas han investigado seriamente qué prefieren sus clientes antes de embarcarse en la automatización? Hay evidencia de que muchas personas siguen valorando el contacto humano, especialmente en situaciones complicadas o emocionalmente delicadas.

Nadie quiere perder tiempo navegando por menús automáticos cuando tiene un problema urgente. Nadie disfruta repitiendo la misma solicitud a un bot que no entiende el contexto. Y sin embargo, este tipo de experiencias se vuelven cada vez más comunes.

Lo curioso es que muchos estudios muestran que los clientes prefieren interactuar con personas… cuando hay personas disponibles. Si no, aceptan las alternativas basadas en IA. Pero la verdadera paradoja es que los clientes siguen comprando productos y servicios sin tener en cuenta el tipo de soporte al elegir una marca. ¿Será porque apenas existen ofertas claramente identificadas como “atención realizada por humanos”?


El argumento de la eficiencia… ¿para quién?

Las empresas hablan de “ganar eficiencia”, pero ¿quién se beneficia realmente? Un sistema puede ser eficiente para la empresa —gestiona más solicitudes con menos recursos— y al mismo tiempo ser ineficiente para el cliente —requiere más tiempo y genera frustración—.

La pregunta clave es: ¿estamos midiendo el éxito adecuadamente?
Si solo se miran indicadores internos (cantidad de solicitudes atendidas, tiempo medio de respuesta, reducción de costes), entonces se está optimizando para la empresa, no para el cliente.

¿Deberían las empresas que priorizan la Confianza, la Seguridad y la Protección apoyarse en herramientas de IA para asistir a sus clientes, prospectos y socios?

Sí, deberían. Sin embargo, deben actuar con cautela y asegurarse de utilizar fuentes de información seguras, confiables y verificadas para orientar a su personal, clientes, prospectos, socios y proveedores.

Este enfoque es obvio y lógico, ya que la reputación y la existencia fundamental de estas empresas se basan en los valores de Confianza, Seguridad y Protección.

¿A qué tipo de empresas nos referimos?

Las respuestas más inmediatas y evidentes incluyen bancos, instituciones financieras, aseguradoras, así como otras actividades sujetas a cumplimiento normativo y riesgos, como la salud y la contabilidad. Además, industrias como la aeronáutica, la construcción y el transporte tienen requisitos de cumplimiento propios, ampliando la lista más allá de los sectores mencionados.

Cuando clientes o prospectos preguntan por las recomendaciones de los Expertos en Conocimiento del equipo de SHA respecto a la implementación de herramientas conversacionales de IA y bots, nuestra postura como Expertos en Gestión Operativa del Conocimiento es clara:

Los bots de IA y las herramientas conversacionales pueden sin duda cumplir objetivos de satisfacción del cliente (CSAT), reducción de costos, productividad y reputación, pero solo si están respaldados por una base sólida de gestión del conocimiento (KM).

Y sí, es cierto que estamos promoviendo nuestro propio enfoque (KM sólido), pero vale la pena señalar que voces independientes también están diciendo lo mismo:
«No permitas que tu bot de IA navegue por áreas no controladas en busca de información; mantén el control y la propiedad.»

Además, es imprescindible garantizar el funcionamiento fluido de tu infraestructura de datos (la arquitectura en la nube de SHA destaca en este aspecto).

Por ejemplo:

Gartner anunció recientemente:

«Para 2025, el 100% de los proyectos de asistentes virtuales de atención al cliente o asistentes virtuales generativos de IA que no estén integrados con sistemas modernos de gestión del conocimiento no alcanzarán sus objetivos de experiencia del cliente y reducción de costos operativos.»

IDC, en su informe técnico de 2024 (IDC #US52048524 patrocinado por NetApp), señala:

«Alrededor del 20% de los proyectos de IA pueden fracasar sin un soporte adecuado en infraestructura de datos,» según un estudio realizado por el proveedor de infraestructura inteligente NetApp.


Para obtener más información sobre cómo SHA puede respaldar sus operaciones de servicio al cliente, comuníquese con nosotros:

/https://sha-saas.com/contact-us/