SHA anuncia el fine-tuning supervisado de LLMs en INTRA

SHA amplía las capacidades de su plataforma INTRA con la incorporación del fine-tuning supervisado de Modelos de Lenguaje de Gran Tamaño (LLMs). Esta nueva funcionalidad complementa el ya existente fine-tuning no supervisado, ofreciendo a las organizaciones un enfoque dual para optimizar el rendimiento de la IA.

Con el fine-tuning no supervisado, INTRA adapta los modelos abiertos a partir del corpus propietario del cliente, al que se pueden añadir dominios específicos relacionados con la naturaleza de su negocio. De este modo, los modelos aprenden la terminología, los documentos y los procesos internos de cada organización.

Ahora, con el fine-tuning supervisado, INTRA da un paso más: el sistema aprende directamente de las preguntas que realizan los usuarios y de las respuestas generadas por los LLMs. Este proceso iterativo de entrenamiento permite refinar el modelo de manera continua, aumentando la precisión y la relevancia en las interacciones reales.

“Al combinar el fine-tuning supervisado y no supervisado, INTRA permite a las organizaciones construir una IA verdaderamente adaptativa: entrenada sobre su corpus propietario y perfeccionada progresivamente a través de las interacciones reales de los usuarios,” afirmó José Luis Caaveiro, CEO de SHA.

Este enfoque dual refuerza la capacidad de INTRA para:

  • Ofrecer respuestas precisas basadas en el conocimiento propietario.
  • Adaptarse a dominios sectoriales específicos.
  • Mejorar de forma continua gracias al entrenamiento supervisado impulsado por los usuarios.

Para más información, por favor contacte con: mc@sha-saas.com