Die Fin AI Engine™ ermöglicht es dem Fin AI Agent, jede Anfrage zu verfeinern, jede Antwort zu optimieren und die Qualität jeder Antwort zu validieren. Dadurch ist es der einzige AI Agent, der branchenweit hohe Lösungsraten mit branchenweit niedrigen Halluzinationen ausbalancieren kann.
Viele AI Agents können entweder auf hohe Lösungsraten oder niedrige Halluzinationen optimieren, haben aber Schwierigkeiten, beides zu erreichen. Das liegt daran, dass sie oft einfach eine „Hülle“ um ein generatives Large Language Model (LLM) legen, anstatt darauf aufzubauen, weil es billiger und einfacher ist.
Dieser Ansatz ignoriert jedoch die Neigung von LLMs zu Halluzinationen und setzt Ihre Kunden falschen oder irrelevanten Informationen aus. Ohne ein System wie Intercoms, das die Eingaben und Ausgaben des LMM verfeinert, kann ein AI Agent nicht effektiv auf Genauigkeit und Zuverlässigkeit optimiert werden.
Wie es funktioniert
Phase 1 - Anfrage verfeinern
Um die Genauigkeit einer Antwort, die ein LLM generiert, zu optimieren, müssen die Eingaben, die das LLM erhält, für das Verständnis verfeinert werden. Je klarer und verständlicher die Anfrage, desto besser das Ergebnis.
Oft schreiben Kunden im Kundenservice ohne vollständige Erklärung oder Kontext ihre Anfrage. Um dieses Problem zu lösen, wurde die Fin AI Engine™ entwickelt, um die an das LLM gesendeten Eingaben zu verfeinern. So wird sichergestellt, dass jede Kundenanfrage in Bezug auf Bedeutung und Kontext optimiert ist, damit das LLM die bestmögliche Chance hat, eine genaue Antwort zu liefern.
Außerdem führt die Fin AI Engine™ Prüfungen durch, um zu sehen, ob eine Workflows-Automatisierung oder eine Custom Answer basierend auf dem Thema und Kontext der Kundenanfrage ausgelöst werden sollte, sowie Sicherheitsprüfungen, um alles herauszufiltern, was Fin nicht beantworten sollte.
Phase 2 - Antwort generieren
Nachdem eine Anfrage geprüft und optimiert wurde, ist der nächste Schritt, eine Antwort mit dem LLM zu generieren. Für diese Aufgabe wurde die Fin AI Engine™ so konzipiert, dass sie eine maßgeschneiderte und verbesserte Retrieval Augmented Generation-Architektur (kurz RAG) verwendet.
RAG ist ein Prozess, bei dem relevante Informationen aus einer Datenquelle abgerufen und mit dem Prompt eines users kombiniert werden, bevor sie an ein LLM weitergegeben werden. Dieser zusätzliche Kontext verbessert die Ausgabe des Modells, indem er das Basiswissen erweitert und so das Risiko von Ungenauigkeiten wie Halluzinationen verringert.
Intercoms Anwendung von RAG ist sehr einzigartig. Die AI-Gruppe bei Intercom hat stark in die Optimierung unserer einzigartigen Anwendung von RAG investiert und testet kontinuierlich sowohl die Genauigkeit des LLM als auch die einzelnen Schritte von RAG, um die Gesamtleistung zu verbessern.
Optimieren der Suche:
Die AI Engine durchsucht die verfügbaren Informationen, Aktionen oder Daten und bestimmt, was für die Art der Anfrage am relevantesten ist und was zur Lösung der Frage oder des Problems benötigt wird. Informationsquellen umfassen:
Inhalte - wie vergangene Intercom-Gespräche, help center-Artikel, PDFs und HTML/URLs, die als genaue und sichere Quellen genehmigt wurden.
Daten - intern oder extern zu Intercom, einschließlich dynamischer Informationen, die Fin zur Personalisierung der Kundenerfahrung nutzen kann.
Integrationen & Aktionen - bestimmen, ob aufgrund der Absicht der Kundenanfrage Aktionen in Drittanbietersystemen erforderlich sind.
Integrieren und erweitern
Die abgerufenen Informationen werden dann mit der optimierten Anfrage oder „Eingabe“ integriert und erweitert. Dieser Schritt stellt sicher, dass das generative Modell Zugriff auf die relevantesten und aktuellsten Informationen hat, bevor es eine Antwort erzeugt. Die erweiterte Eingabe ist so strukturiert, dass der Kontext und die Relevanz der abgerufenen Informationen erhalten bleiben, was es dem Modell erleichtert, sie zu verstehen und zu nutzen.
Antwort generieren
Klärung und Disambiguierung
Wenn die Ausgabe des Modells nicht den Parametern der Fin AI Engine™ für Sicherheit entspricht, wird eine Antwort generiert, die den Kunden bittet, seine Anfrage zu klären. Dieser Disambiguierungsschritt hilft, Risiken wie Halluzinationen zu vermeiden, da die generierte Antwort kontextbezogen und auf den Fakten aus den verfügbaren Wissensressourcen und Supportinhalten Ihres Unternehmens basiert.
Eine Aktion ausführen
Wenn aufgrund der Absicht der user-Anfrage eine Aktion erforderlich ist, wird diese mit den notwendigen Informationen, Daten, Integrationen und Systemen ausgeführt.
Antwort generieren
Das generative Modell verwendet die erweiterte Eingabe, um eine Antwort zu generieren. Durch die Einbeziehung der abgerufenen Informationen kann das Modell genauere, kontextuell relevantere und detailliertere Antworten liefern. Die generierte Antwort kann einer Nachbearbeitung unterzogen werden, um Klarheit, Kohärenz und Übereinstimmung mit der Anfrage des users sicherzustellen.
Phase 3 - Genauigkeit validieren
Im letzten Schritt des Prozesses führt die Fin AI Engine™ Prüfungen durch, um zu verstehen, ob die Ausgabe des LLM die notwendigen Genauigkeits- und Sicherheitsstandards für Antworten erfüllt. Es werden viele Prüfungen durchgeführt, die abdecken, ob genügend Vertrauen in die Antwort besteht, die Antwort genau genug ist und ob die Antwort ausreichend auf der Realität basiert, um die Frage angemessen zu beantworten.
Antwort validieren
Vergleichen Sie die generierte Antwort mit der ursprünglichen Kundenanfrage.
Bestimmen Sie, ob die generierte Antwort die Anfrage ausreichend beantwortet.
Bestimmen Sie, ob die generierte Antwort auf dem Wissen Ihrer Wissensressourcen und Supportinhalte als Wahrheitsquelle basiert.
Auf Kunden antworten
Senden Sie die generierte Antwort über Fin an den Kunden zurück.
Engine-Optimierung
Um die Leistung der Engine zu kalibrieren und zu verbessern, verfügt die Fin AI Engine™ über fortschrittliche integrierte Tools, die helfen, die Antwortgenerierung, Effizienz, Präzision und Abdeckung zu optimieren.
Fin-Anpassung und Kontrolle - Intercom hat Funktionen und Tools integriert, die users helfen, anzupassen und zu steuern, wie Fin antwortet, was es tun kann, welche Informationen es verwenden kann und vieles mehr. Jeder dieser Teile spielt eine Rolle dabei, wie gut Fin funktioniert. Je mehr es kann, desto mehr kann es tun, und desto mehr können Sie Ihren Support mit menschlicher Qualität automatisieren.
AI-Analysen und Berichte - Die Fin AI Engine™ wurde entwickelt, um Analysen zur Effektivität jeder Phase des Antwortgenerierungsprozesses zu ermöglichen. Dies gibt der AI-Gruppe bei Intercom die Werkzeuge, die sie benötigen, um jede Phase des Prozesses und die Gesamtleistung zu verbessern. Vor jeder Änderung an der AI-Engine-Architektur wird umfangreich getestet, wie sich jede kleine Änderung auf die Engine als Ganzes auswirkt. Außerdem bietet die AI Engine Intercom users Zugang zu vorgefertigten und anpassbaren Berichten, die helfen zu verstehen, wo Fin gut funktioniert und was verbessert werden kann.
AI-Empfehlungen - Die AI Engine bietet Empfehlungen zur kontinuierlichen Leistungsverbesserung im Laufe der Zeit. Dies reicht von der Identifizierung von Inhalten, die helfen könnten, Wissenslücken von Fin zu schließen, bis hin zur Hervorhebung von unterdurchschnittlichen Inhalten, die weiter optimiert werden sollten, oder dem Vorschlag, Aktionen einzurichten, damit Fin mehr Anfragen von Kunden lösen kann.
Sicherheit und Schutz
Sich ausschließlich auf die generativen Fähigkeiten eines LLM zu verlassen, um ein Kundenproblem zu beantworten oder zu lösen, ist keine zuverlässige Methode, um Kunden zu bedienen. Ohne die richtigen Schutzmaßnahmen können LLMs manipuliert werden oder Halluzinationen erzeugen, was Ihre Kunden beeinträchtigen könnte. Um Sicherheit und Zuverlässigkeit zu gewährleisten, wurde die Fin AI Engine™ mit strengen Sicherheitskontrollen in jeder Phase entwickelt. Wenn die notwendigen Sicherheitsparameter in einem der Schritte oder Phasen nicht erfüllt sind, teilt Fin dem Kunden mit, dass es die Anfrage nicht beantworten kann, und eskaliert an den menschlichen Support.
Intercom hat modernste Sicherheitsmaßnahmen implementiert, um Fin gegen eine Vielzahl von LLM-Bedrohungen zu schützen, einschließlich der vom OWASP LLM Top 10 identifizierten. Durch kontinuierliches Testen verschiedener High-End-LLMs und den Einsatz rigoroser interner Kontrollen, Sicherheitsprotokolle und Schutzmaßnahmen kann Fin das höchste Sicherheits- und Zuverlässigkeitsniveau erreichen und gleichzeitig potenzielle Einschränkungen und Bedrohungen vermeiden.
Das bedeutet, dass Sie und Ihre Kunden Fin’s Antworten immer als die sichersten, genauesten und zuverlässigsten aller AI Agents vertrauen können.
Erfahren Sie mehr über Fin’s Sicherheitsmaßnahmen auf trust.intercom.com.
Fin AI Sicherheit
Umfassender Überblick über die Sicherheitsmaßnahmen und Testprotokolle, die für Intercoms Fin AI-Funktionen implementiert wurden, verfügbar hier.
Regionale Hosting
Fin AI Agent ist auf US-, EU- und AU-gehosteten Workspaces verfügbar.
Compliance
Intercom verfügt über internationale Akkreditierungen und Kontrollen, um den höchsten Standard an Sicherheit und Schutz zu gewährleisten, darunter:
ISO 27001, ISO27701, ISO 27018 und ISO42001
HIPAA-Konformität.
SOC 2 Bericht - SOC 2, Typ II Auditbericht, der Kontrollen speziell zu Sicherheit, Verfügbarkeit und Vertraulichkeit abdeckt.
HDS-Zertifikat - Zertifizierung der Einhaltung der HDS-Referenzversion 1.1 (englische und französische Version)
Zusammenfassung des Penetrationstests - Zusammenfassung detaillierter Penetrationstests an Intercoms Anwendung und Infrastruktur durch externe Sicherheitsexperten.
Cloud Security Alliance Bewertung - Sicherheits- und Datenschutz-Selbsteinschätzungen basierend auf der Cloud Controls Matrix und dem CSA-Verhaltenskodex für GDPR-Konformität.
Datenverwendung, -übertragung und -speicherung von Drittanbieter-LLMs
Kundendaten werden von LLM-Anbietern nicht für das Modelltraining verwendet. Alle an ein AI-Produkt übermittelten Daten werden zu einer Eingabe, die zur Generierung einer Ausgabe verwendet wird (wie diese Begriffe in unseren Additional Product Terms definiert sind).
Vollständige Details finden Sie in unserem Rechts- und Sicherheitsleitfaden für AI-Produkte/-Funktionen (Sie müssen in Ihrem Intercom-Workspace angemeldet sein, um diesen Artikel zu sehen).
