Ir al contenido principal

El Fin AI Engine™

Conozca la tecnología detrás del agente AI de Intercom - Fin.

Escrito por Beth-Ann Sher

El Fin AI Engine™ permite que el agente Fin AI refine cada consulta, optimice cada respuesta y valide la calidad de cada respuesta. Como resultado, es el único agente AI que puede equilibrar resoluciones altas en la industria con alucinaciones bajas en la industria.

Muchos agentes AI pueden optimizar hacia resoluciones altas o bajas alucinaciones, pero tienen dificultades para hacer ambas cosas. Esto se debe a que a menudo simplemente aplican un 'envoltorio' a un Modelo de Lenguaje Grande (LLM) generativo, en lugar de construir sobre él, porque es más barato y fácil.

Sin embargo, este enfoque ignora la tendencia de los LLM a alucinar y exponer a sus clientes a información incorrecta o irrelevante. Sin un sistema como el de Intercom que refine las entradas y salidas del LLM, un agente AI no puede optimizarse eficazmente para la precisión y la fiabilidad.


Cómo funciona

Fase 1 - Refinar consulta

Para optimizar la precisión de una respuesta que genera un LLM, las entradas que recibe el LLM deben refinarse para su comprensión. Cuanto más clara y comprensible sea la consulta, mejor será la salida.

A menudo en el servicio al cliente, los clientes pueden escribir al soporte sin explicar o contextualizar completamente su consulta. Para resolver este problema, el Fin AI Engine™ ha sido diseñado para refinar las entradas que se envían al LLM. Esto asegura que cada mensaje del cliente esté optimizado en términos de su significado y contexto para que el LLM tenga la mejor oportunidad posible de producir una respuesta precisa.

Además, el Fin AI Engine™ realiza comprobaciones para ver si se debe activar una automatización de Workflows o una Respuesta Personalizada según el tema y contexto de la consulta del cliente, así como realizar controles de seguridad para filtrar cualquier cosa que Fin no debería responder.

Fase 2 - Generar respuesta

Una vez que una consulta ha sido revisada y optimizada, la siguiente etapa es generar una respuesta usando el LLM. Para esta tarea, el Fin AI Engine™ ha sido diseñado para usar una arquitectura personalizada y mejorada de generación aumentada por recuperación (RAG, por sus siglas en inglés).

RAG es un proceso que implica recuperar información relevante de una fuente de datos y combinarla con el mensaje del usuario antes de pasarlo a un LLM. Este contexto adicional ayuda a mejorar la salida del modelo al ampliar su conocimiento base y, al hacerlo, reducir el riesgo de inexactitudes como las alucinaciones.

La aplicación de RAG por parte de Intercom es altamente única. El grupo de AI en Intercom ha invertido mucho en optimizar nuestra aplicación única de RAG y prueba continuamente tanto la precisión del LLM como los pasos individuales de RAG para mejorar el rendimiento general.

  1. Optimizar recuperación:

    1. El motor AI busca la información, acciones o datos disponibles y determina qué es más relevante para la naturaleza de la consulta y qué se necesita para resolver la pregunta o problema. Las fuentes de información incluyen:

      1. Contenido - como conversaciones pasadas de Intercom, artículos del help center, PDFs y HTML/URLs que han sido aprobados como fuentes precisas y seguras.

      2. Datos - internos o externos a Intercom, incluyendo información dinámica que Fin puede usar para personalizar la experiencia del cliente.

      3. Integraciones y acciones - determinan si será necesario realizar alguna acción en sistemas de terceros como resultado de la intención de la consulta del cliente.

  2. Integrar y aumentar

    1. La información recuperada se integra y aumenta con la consulta optimizada o 'entrada'. Este paso asegura que el modelo generativo tenga acceso a la información más relevante y actualizada antes de producir una respuesta. La entrada aumentada está estructurada de manera que mantiene el contexto y la relevancia de la información recuperada, facilitando que el modelo la entienda y use.

  3. Generar respuesta

    1. Aclarar y desambiguar

      1. Si la salida del modelo no cumple con los parámetros de certeza del Fin AI Engine™, se genera una respuesta para pedir al cliente que aclare su consulta. Este paso de desambiguación ayuda a evitar riesgos como las alucinaciones, ya que la respuesta generada es contextual y está basada en los hechos de los recursos de conocimiento y contenido de soporte disponibles de su empresa.

    2. Tomar una acción

      1. Si se requiere una acción como producto de la consulta e intención del usuario, la acción se realizará usando la información, datos, integraciones y sistemas necesarios.

    3. Generar respuesta

      1. El modelo generativo usa la entrada aumentada para generar una respuesta. Al incorporar la información recuperada, el modelo puede producir respuestas más precisas, contextualmente relevantes y detalladas. La respuesta generada puede someterse a un post-procesamiento para asegurar claridad, coherencia y alineación con la consulta del usuario.

Fase 3 - Validar precisión

En el paso final del proceso, el Fin AI Engine™ realiza comprobaciones para entender si la salida del LLM cumple con los estándares necesarios de precisión y seguridad en la respuesta. Se realizan muchas comprobaciones, cubriendo si hay suficiente confianza en la respuesta, si la respuesta es lo suficientemente precisa y si la respuesta está suficientemente fundamentada en la realidad para abordar adecuadamente la pregunta.

  1. Validar la respuesta

    1. Comparar la respuesta generada con la consulta original del cliente.

    2. Determinar si la respuesta generada responde suficientemente bien a la consulta.

    3. Determinar si la respuesta generada está fundamentada en el conocimiento de sus recursos de conocimiento y contenido de soporte como fuente de verdad.

  2. Responder al cliente

    1. Enviar la respuesta generada de vuelta al cliente a través de Fin.


Optimización del motor

Para calibrar y mejorar el rendimiento del motor, el Fin AI Engine™ cuenta con herramientas integradas avanzadas que ayudan a optimizar la generación de respuestas, eficiencia, precisión y cobertura.

Personalización y control de Fin - Intercom ha incorporado funciones y herramientas diseñadas para ayudar a los users a personalizar y controlar cómo responde Fin, qué puede hacer, qué información puede usar y mucho más. Cada una de estas piezas juega un papel en qué tan bien Fin funciona. Cuanto más sabe hacer, más puede hacer, y más podrá automatizar su soporte con experiencias de cliente de calidad humana.

Análisis y reportes de AI - El Fin AI Engine™ ha sido diseñado para facilitar análisis sobre la efectividad de cada etapa del proceso de generación de respuestas. Esto le da al grupo de AI en Intercom las herramientas que necesitan para mejorar cada etapa del proceso y el rendimiento general. Se realizan pruebas rigurosas antes de hacer cualquier cambio en la arquitectura del motor AI, que toman en cuenta cómo cada pequeño cambio impacta el motor en su conjunto. Además, el motor AI ofrece a los users de Intercom acceso a reportes preconstruidos y personalizables que ayudan a entender dónde Fin funciona bien y qué se puede mejorar.

Recomendaciones de AI - el motor AI ofrece recomendaciones para mejorar continuamente el rendimiento con el tiempo. Esto va desde identificar qué contenido podría ayudar a llenar vacíos en el conocimiento de Fin, hasta resaltar contenido con bajo rendimiento que debería optimizarse más, o sugerir que se configuren acciones para ayudar a Fin a resolver más consultas para los clientes.


Seguridad y protección

Confiar exclusivamente en las capacidades generativas de un LLM para responder o resolver un problema del cliente no es una forma confiable de atender a los clientes. Sin las salvaguardas adecuadas, los LLM pueden ser manipulados o alucinar, lo que podría afectar a sus clientes. Para garantizar seguridad y fiabilidad, el Fin AI Engine™ ha sido diseñado con controles estrictos de seguridad en cada etapa. Si no se cumplen los parámetros necesarios de seguridad en cualquiera de los pasos o etapas, Fin informará al cliente que no puede responder la consulta y escalará a soporte humano.

Intercom ha implementado medidas de seguridad de última generación para proteger a Fin contra una amplia gama de amenazas de LLM, incluyendo las identificadas por el OWASP LLM Top 10. Al probar constantemente una variedad de LLM de alta gama y desplegar controles internos rigurosos, protocolos de seguridad y salvaguardas, Fin puede alcanzar el más alto nivel de seguridad y fiabilidad mientras evita limitaciones y amenazas potenciales.

Eso significa que usted y sus clientes siempre pueden confiar en las respuestas de Fin como las más seguras, precisas y fiables de cualquier agente AI.

Conozca más sobre las medidas de seguridad de Fin en trust.intercom.com.

Seguridad Fin AI

Descripción general completa de las medidas de seguridad y protocolos de prueba implementados para las funciones Fin AI de Intercom disponibles aquí.

Hospedaje regional

El agente Fin AI está disponible en los espacios de trabajo alojados en US, EU y AU.

Cumplimiento

Intercom cuenta con acreditaciones y controles internacionales para garantizar el más alto estándar de seguridad y protección, incluyendo:

  • ISO 27001, ISO27701, ISO 27018 y ISO42001

  • Cumplimiento HIPAA.

  • Informe SOC 2 - Informe de auditoría SOC 2, Tipo II que cubre controles específicos de seguridad, disponibilidad y confidencialidad.

  • Certificado HDS - Certificación de cumplimiento con la Versión Referencial HDS 1.1 (versión en inglés y francés)

  • Resumen de prueba de penetración - Resumen de pruebas detalladas de penetración en la aplicación e infraestructura de Intercom por expertos en seguridad externos.

  • Evaluación de seguridad en la nube - Autoevaluaciones de seguridad y privacidad basadas en la Matriz de Controles en la Nube y el Código de Conducta CSA para el cumplimiento GDPR.

Uso, transferencia y almacenamiento de datos LLM de terceros

Los datos de los clientes no se usan para el entrenamiento del modelo por los proveedores de LLM. Cualquier dato enviado a un Producto AI se convierte en una Entrada, usada para generar una Salida (según se definen esos términos en nuestros Términos Adicionales del Producto).

Detalles completos disponibles en nuestra guía legal y de seguridad para Productos/Funciones AI (debe iniciar sesión en su espacio de trabajo Intercom para ver este artículo).

¿Ha quedado contestada tu pregunta?