Passer au contenu principal

Le Fin AI Engine™

Découvrez la technologie derrière l'agent AI d'Intercom - Fin.

Écrit par Beth-Ann Sher

Le Fin AI Engine™ permet à l'agent Fin AI de raffiner chaque requête, d'optimiser chaque réponse et de valider la qualité de chaque réponse. En conséquence, c'est le seul agent AI capable d'équilibrer des résolutions élevées dans l'industrie avec des hallucinations faibles dans l'industrie.

De nombreux agents AI peuvent optimiser soit vers des résolutions élevées, soit vers de faibles hallucinations, mais ont du mal à faire les deux. Cela s'explique par le fait qu'ils appliquent souvent simplement un « wrapper » à un grand modèle de langage génératif (LLM), au lieu de construire dessus, car c'est moins cher et plus facile.

Cependant, cette approche ignore la tendance des LLM à halluciner et expose vos clients à des informations incorrectes ou non pertinentes. Sans un système comme celui d'Intercom qui affine les entrées et sorties du LLM, un agent AI ne peut pas être efficacement optimisé pour la précision et la fiabilité.


Comment ça fonctionne

Phase 1 - Raffiner la requête

Pour optimiser la précision d'une réponse générée par un LLM, les entrées reçues par le LLM doivent être raffinées pour la compréhension. Plus la requête est claire et compréhensible, meilleur est le résultat.

Souvent dans le service client, les clients peuvent écrire au support sans expliquer ou contextualiser complètement leur requête. Pour résoudre ce problème, le Fin AI Engine™ a été conçu pour affiner les entrées envoyées au LLM. Cela garantit que chaque message client est optimisé en termes de sens et de contexte afin que le LLM ait la meilleure chance possible de produire une réponse précise.

De plus, le Fin AI Engine™ effectue des vérifications pour voir si une automatisation Workflows ou une réponse personnalisée doit être déclenchée en fonction du sujet et du contexte de la requête du client, ainsi que des contrôles de sécurité pour filtrer tout ce à quoi Fin ne devrait pas répondre.

Phase 2 - Générer la réponse

Une fois la requête vérifiée et optimisée, l'étape suivante est de générer une réponse en utilisant le LLM. Pour cette tâche, le Fin AI Engine™ a été conçu pour utiliser une architecture de génération augmentée par récupération sur mesure et améliorée (RAG pour faire court).

RAG est un processus qui consiste à récupérer des informations pertinentes à partir d'une source de données et à les combiner avec l'invite d'un utilisateur avant de les transmettre à un LLM. Ce contexte supplémentaire aide à améliorer la sortie du modèle en enrichissant ses connaissances de base, réduisant ainsi le risque d'inexactitudes comme les hallucinations.

L'application de RAG par Intercom est très unique. Le groupe AI d'Intercom a beaucoup investi pour optimiser notre application unique de RAG et teste continuellement à la fois la précision du LLM et les étapes individuelles de RAG pour améliorer la performance globale.

  1. Optimiser la récupération :

    1. Le moteur AI recherche les informations, actions ou données disponibles et détermine ce qui est le plus pertinent pour la nature de la requête et ce qui est nécessaire pour résoudre la question ou le problème. Les sources d'information incluent :

      1. Contenu - comme les conversations passées d'Intercom, les articles du help center, les PDF et les HTML/URLs qui ont été approuvés comme sources précises et sûres.

      2. Données - internes ou externes à Intercom, y compris les informations dynamiques que Fin peut utiliser pour personnaliser l'expérience client.

      3. Intégrations & actions - déterminer si des actions seront nécessaires sur des systèmes tiers en fonction de l'intention de la requête du client.

  2. Intégrer et augmenter

    1. Les informations récupérées sont ensuite intégrées et augmentées avec la requête optimisée ou « entrée ». Cette étape garantit que le modèle génératif a accès aux informations les plus pertinentes et à jour avant de produire une réponse. L'entrée augmentée est structurée de manière à maintenir le contexte et la pertinence des informations récupérées, facilitant ainsi la compréhension et l'utilisation par le modèle.

  3. Générer la réponse

    1. Clarifier et désambiguïser

      1. Si la sortie du modèle ne répond pas aux paramètres de certitude du Fin AI Engine™, une réponse est générée pour demander au client de clarifier sa requête. Cette étape de désambiguïsation aide à éviter les risques comme les hallucinations car la réponse générée est contextuelle et fondée sur les faits issus des ressources de connaissance et du contenu de support de votre entreprise.

    2. Prendre une action

      1. Si une action est requise en fonction de la requête et de l'intention de l'utilisateur, l'action sera effectuée en utilisant les informations, données, intégrations et systèmes nécessaires.

    3. Générer la réponse

      1. Le modèle génératif utilise l'entrée augmentée pour générer une réponse. En incorporant les informations récupérées, le modèle peut produire des réponses plus précises, contextuellement pertinentes et détaillées. La réponse générée peut subir un post-traitement pour assurer clarté, cohérence et alignement avec la requête de l'utilisateur.

Phase 3 - Valider la précision

Dans l'étape finale du processus, le Fin AI Engine™ effectue des vérifications pour comprendre si la sortie du LLM répond aux normes nécessaires de précision et de sécurité des réponses. De nombreuses vérifications sont effectuées, couvrant la confiance dans la réponse, la précision suffisante de la réponse, et si la réponse est suffisamment ancrée dans la réalité pour répondre adéquatement à la question.

  1. Valider la réponse

    1. Comparer la réponse générée à la requête client originale.

    2. Déterminer si la réponse générée répond suffisamment à la requête.

    3. Déterminer si la réponse générée est fondée sur les connaissances de vos ressources de connaissance et du contenu de support comme source de vérité.

  2. Répondre au client

    1. Envoyer la réponse générée au client via Fin.


Optimisation du moteur

Pour calibrer et améliorer la performance du moteur, le Fin AI Engine™ dispose d'outils intégrés avancés qui aident à optimiser la génération de réponses, l'efficacité, la précision et la couverture.

Personnalisation et contrôle de Fin - Intercom a intégré des fonctionnalités et outils conçus pour aider les users à personnaliser et contrôler la façon dont Fin répond, ce qu'il peut faire, quelles informations il peut utiliser et bien plus encore. Chacun de ces éléments joue un rôle dans la performance de Fin. Plus il sait faire, plus il peut faire, et plus vous pourrez automatiser votre support avec des expériences clients de qualité humaine.

Analyses et rapports AI - Le Fin AI Engine™ a été conçu pour faciliter les analyses sur l'efficacité de chaque étape du processus de génération de réponses. Cela donne au groupe AI d'Intercom les outils nécessaires pour améliorer chaque étape du processus et la performance globale. Un nombre rigoureux de tests est effectué avant toute modification de l'architecture du moteur AI, prenant en compte l'impact de chaque petit changement sur le moteur dans son ensemble. De plus, le moteur AI offre aux users d'Intercom l'accès à des rapports préconstruits et personnalisables qui aident à comprendre où Fin fonctionne bien et ce qui peut être amélioré.

Recommandations AI - le moteur AI propose des recommandations pour améliorer continuellement la performance au fil du temps. Cela va de l'identification des contenus pouvant combler les lacunes dans les connaissances de Fin, à la mise en évidence des contenus sous-performants qui devraient être davantage optimisés, ou à la suggestion d'actions à mettre en place pour aider Fin à résoudre plus de requêtes pour les clients.


Sécurité et sûreté

S'appuyer exclusivement sur les capacités génératives d'un LLM pour répondre ou résoudre un problème client n'est pas une manière fiable de servir les clients. Sans les protections appropriées, les LLM peuvent être sujets à la manipulation ou aux hallucinations, ce qui pourrait alors impacter vos clients. Pour garantir la sécurité et la fiabilité, le Fin AI Engine™ a été conçu avec des contrôles de sécurité stricts à chaque étape. Si les paramètres nécessaires à la sécurité ne sont pas respectés à une étape, Fin informera le client qu'il ne peut pas répondre à la requête et escaladera vers le support humain.

Intercom a mis en place des mesures de sécurité de pointe pour protéger Fin contre un large éventail de menaces liées aux LLM, y compris celles identifiées par le OWASP LLM Top 10. En testant constamment une variété de LLM haut de gamme, et en déployant des contrôles internes rigoureux, des protocoles de sécurité et des protections, Fin peut atteindre le plus haut niveau de sécurité et de fiabilité tout en évitant les limitations et menaces potentielles.

Cela signifie que vous et vos clients pouvez toujours faire confiance aux réponses de Fin comme étant les plus sûres, précises et fiables de tous les agents AI.

En savoir plus sur les mesures de sécurité de Fin sur trust.intercom.com.

Sécurité Fin AI

Vue d'ensemble complète des mesures de sécurité et des protocoles de test mis en œuvre pour les fonctionnalités Fin AI d'Intercom disponibles ici.

Hébergement régional

Fin AI Agent est disponible sur les espaces de travail hébergés US, EU et AU.

Conformité

Intercom dispose d'accréditations et de contrôles internationaux pour garantir le plus haut niveau de sécurité et de sûreté, notamment :

  • ISO 27001, ISO27701, ISO 27018 et ISO42001

  • Conformité HIPAA.

  • Rapport SOC 2 - rapport d'audit SOC 2, Type II couvrant les contrôles spécifiques à la sécurité, la disponibilité et la confidentialité.

  • Certificat HDS - Certification de conformité avec le Référentiel HDS Version 1.1 (version anglaise et française)

  • Résumé du test de pénétration - Résumé des tests de pénétration détaillés sur l'application et l'infrastructure d'Intercom par des experts en sécurité tiers.

  • Évaluation de la Cloud Security Alliance - Auto-évaluations de sécurité et de confidentialité basées sur le Cloud Controls Matrix et le Code de conduite CSA pour la conformité GDPR.

Utilisation, transfert et stockage des données LLM tiers

Les données clients ne sont pas utilisées pour l'entraînement des modèles par les fournisseurs de LLM. Toute donnée soumise à un produit AI devient une entrée, utilisée pour générer une sortie (selon les termes définis dans nos Additional Product Terms).

Tous les détails sont disponibles dans notre guide juridique et de sécurité pour les produits/fonctionnalités AI (vous devez être connecté à votre espace de travail Intercom pour voir cet article).

Avez-vous trouvé la réponse à votre question ?