O Fin AI Engine™ permite que o Fin AI Agent refine cada consulta, otimize cada resposta e valide a qualidade de cada resposta. Como resultado, é o único agente de IA que pode equilibrar altas resoluções do setor com baixas alucinações do setor.
Muitos agentes de IA podem otimizar para altas resoluções ou baixas alucinações, mas têm dificuldade em fazer ambos. Isso ocorre porque eles frequentemente aplicam apenas um ‘envelope’ a um Modelo de Linguagem Grande (LLM) generativo, em vez de construir sobre ele, porque é mais barato e fácil.
No entanto, essa abordagem ignora a tendência dos LLMs de alucinar e expor seus clientes a informações incorretas ou irrelevantes. Sem um sistema como o da Intercom que refine as entradas e saídas do LMM, um agente de IA não pode ser efetivamente otimizado para precisão e confiabilidade.
Como funciona
Fase 1 - Refinar consulta
Para otimizar a precisão de uma resposta que um LLM gera, as entradas que o LLM recebe devem ser refinadas para compreensão. Quanto mais clara e compreensível a consulta, melhor a saída.
Frequentemente no atendimento ao cliente, os clientes podem escrever para o suporte sem explicar ou contextualizar totalmente sua consulta. Para resolver esse problema, o Fin AI Engine™ foi projetado para refinar as entradas enviadas ao LLM. Isso garante que cada mensagem do cliente seja otimizada em termos de significado e contexto para que o LLM tenha a melhor chance possível de produzir uma resposta precisa.
Além disso, o Fin AI Engine™ realiza verificações para ver se uma automação Workflows ou uma Resposta Personalizada deve ser acionada com base no tópico e contexto da consulta do cliente, além de realizar verificações de segurança para filtrar qualquer coisa que o Fin não deva responder.
Fase 2 - Gerar resposta
Uma vez que uma consulta foi verificada e otimizada, a próxima etapa é gerar uma resposta usando o LLM. Para essa tarefa, o Fin AI Engine™ foi projetado para usar uma arquitetura personalizada e aprimorada de geração aumentada por recuperação (RAG, na sigla em inglês).
RAG é um processo que envolve recuperar informações relevantes de uma fonte de dados e combiná-las com o prompt do usuário antes de passá-las para um LLM. Esse contexto adicional ajuda a melhorar a saída do modelo ao ampliar seu conhecimento base, reduzindo assim o risco de imprecisões como alucinações.
A aplicação de RAG pela Intercom é altamente única. O grupo de IA da Intercom investiu muito na otimização de nossa aplicação única de RAG e testa continuamente tanto a precisão do LLM quanto as etapas individuais do RAG para melhorar o desempenho geral.
Otimizar recuperação:
O motor de IA busca as informações, ações ou dados disponíveis e determina o que é mais relevante para a natureza da consulta e o que é necessário para resolver a questão ou problema. As fontes de informação incluem:
Conteúdo - como conversas passadas da Intercom, artigos do help center, PDFs e HTML/URLs que foram aprovados como fontes precisas e seguras.
Dados - internos ou externos à Intercom, incluindo informações dinâmicas que o Fin pode usar para personalizar a experiência do cliente.
Integrações e ações - determinam se alguma ação será necessária em sistemas de terceiros como resultado da intenção da consulta do cliente.
Integrar e aumentar
As informações recuperadas são então integradas e aumentadas com a consulta otimizada ou ‘entrada’. Esta etapa garante que o modelo generativo tenha acesso às informações mais relevantes e atualizadas antes de produzir uma resposta. A entrada aumentada é estruturada de forma a manter o contexto e a relevância das informações recuperadas, facilitando a compreensão e uso pelo modelo.
Gerar resposta
Esclarecer e desambiguar
Se a saída do modelo não atender aos parâmetros de certeza do Fin AI Engine™, uma resposta é gerada para pedir ao cliente que esclareça sua consulta. Esta etapa de desambiguação ajuda a evitar riscos como alucinações, pois a resposta gerada é contextual e fundamentada nos fatos dos recursos de conhecimento e conteúdo de suporte disponíveis da sua empresa.
Executar uma ação
Se uma ação for necessária como resultado da consulta e intenção do usuário, a ação será realizada usando as informações, dados, integrações e sistemas necessários.
Gerar resposta
O modelo generativo usa a entrada aumentada para gerar uma resposta. Ao incorporar as informações recuperadas, o modelo pode produzir respostas mais precisas, contextualmente relevantes e detalhadas. A resposta gerada pode passar por pós-processamento para garantir clareza, coerência e alinhamento com a consulta do usuário.
Fase 3 - Validar precisão
Na etapa final do processo, o Fin AI Engine™ realiza verificações para entender se a saída do LLM atende aos padrões necessários de precisão e segurança da resposta. Muitas verificações são realizadas, cobrindo se há confiança suficiente na resposta, se a resposta é precisa o bastante e se a resposta está suficientemente fundamentada na realidade para abordar adequadamente a questão.
Validar a resposta
Compare a resposta gerada com a consulta original do cliente.
Determine se a resposta gerada responde bem à consulta.
Determine se a resposta gerada está fundamentada no conhecimento dos seus recursos de conhecimento e conteúdo de suporte como fonte de verdade.
Responder ao cliente
Envie a resposta gerada de volta ao cliente através do Fin.
Otimização do motor
Para calibrar e melhorar o desempenho do motor, o Fin AI Engine™ possui ferramentas integradas avançadas que ajudam a otimizar a geração de respostas, eficiência, precisão e cobertura.
Personalização e controle do Fin - A Intercom incorporou recursos e ferramentas projetados para ajudar os users a personalizar e controlar como o Fin responde, o que ele pode fazer, quais informações pode usar e muito mais. Cada uma dessas peças desempenha um papel em quão bem o Fin performa. Quanto mais ele sabe fazer, mais ele pode fazer, e mais você poderá automatizar seu suporte com experiências de atendimento ao cliente com qualidade humana.
Análise e relatórios de IA - O Fin AI Engine™ foi projetado para facilitar análises sobre a eficácia de cada etapa do processo de geração de respostas. Isso dá ao grupo de IA da Intercom as ferramentas necessárias para melhorar cada etapa do processo e o desempenho geral. Uma quantidade rigorosa de testes acontece antes de quaisquer mudanças serem feitas na arquitetura do motor de IA, que leva em conta como cada pequena mudança impacta o motor como um todo. Além disso, o motor de IA oferece aos users da Intercom acesso a relatórios pré-construídos e personalizáveis que ajudam a entender onde o Fin está funcionando bem e o que pode ser melhorado.
Recomendações de IA - o motor de IA oferece recomendações para melhorar continuamente o desempenho ao longo do tempo. Isso varia desde identificar qual conteúdo poderia ajudar a preencher lacunas no conhecimento do Fin, até destacar conteúdo com desempenho inferior que deve ser otimizado, ou sugerir que ações sejam configuradas para ajudar o Fin a resolver mais consultas para os clientes.
Segurança e proteção
Confiar exclusivamente nas capacidades generativas de um LLM para responder ou resolver um problema do cliente não é uma forma confiável de atender os clientes. Sem as salvaguardas adequadas, os LLMs podem ser manipulados ou apresentar alucinações, o que pode impactar seus clientes. Para garantir segurança e confiabilidade, o Fin AI Engine™ foi projetado com controles rigorosos de segurança em cada etapa. Se os parâmetros necessários de segurança não forem atendidos em qualquer uma das etapas, o Fin informará ao cliente que não pode responder à consulta e encaminhará para o suporte humano.
A Intercom implementou medidas de segurança de última geração para proteger o Fin contra uma ampla gama de ameaças de LLM, incluindo aquelas identificadas pelo OWASP LLM Top 10. Ao testar consistentemente uma variedade de LLMs avançados e implantar controles internos rigorosos, protocolos de segurança e salvaguardas, o Fin consegue alcançar o mais alto nível de segurança e confiabilidade, evitando limitações e ameaças potenciais.
Isso significa que você e seus clientes podem sempre confiar nas respostas do Fin como as mais seguras, precisas e confiáveis de qualquer agente de IA.
Saiba mais sobre as medidas de segurança do Fin em trust.intercom.com.
Segurança do Fin AI
Visão geral abrangente das medidas de segurança e protocolos de teste implementados para os recursos Fin AI da Intercom disponíveis aqui.
Hospedagem regional
O Fin AI Agent está disponível nos workspaces hospedados nos EUA, UE e AU.
Conformidade
A Intercom possui acreditações e controles internacionais para garantir o mais alto padrão de segurança e proteção, incluindo:
ISO 27001, ISO27701, ISO 27018 e ISO42001
Conformidade HIPAA.
Relatório SOC 2 - Relatório de auditoria SOC 2, Tipo II, cobrindo controles específicos de segurança, disponibilidade e confidencialidade.
Certificado HDS - Certificação de conformidade com a Versão Referencial HDS 1.1 (versão em inglês e francês)
Resumo do teste de penetração - Resumo dos testes detalhados de penetração na aplicação e infraestrutura da Intercom por especialistas em segurança terceirizados.
Avaliação da aliança de segurança em nuvem - Autoavaliações de segurança e privacidade baseadas na Matriz de Controles em Nuvem e no Código de Conduta CSA para Conformidade com GDPR.
Uso, transferência e armazenamento de dados de LLM de terceiros
Os dados dos clientes não são usados para treinamento de modelo por provedores de LLM. Quaisquer dados enviados a um Produto de IA tornam-se uma Entrada, usada para gerar uma Saída (conforme esses termos são definidos em nossos Termos Adicionais do Produto).
Detalhes completos disponíveis em nosso guia legal e de segurança para Produtos/Recursos de IA (você deve estar logado no seu workspace Intercom para visualizar este artigo).
