Que sont les Monitors ?
Les Monitors vous aident à évaluer et améliorer en continu la qualité des conversations de Fin à grande échelle. Ils vous offrent un moyen structuré de définir quelles conversations doivent être examinées, que ce soit un échantillon aléatoire pour la qualité de base, ou un ensemble ciblé basé sur des signaux à risque élevé ou à fort impact. Cela remplace l'échantillonnage ad hoc et le contrôle qualité basé sur des feuilles de calcul par un système répétable qui évolue avec le volume.
Comment les équipes utilisent les Monitors
Les équipes utilisent les Monitors pour maintenir une visibilité continue sur la qualité et concentrer l'attention là où elle compte le plus.
Cas d'utilisation courants incluent :
Examiner un échantillon aléatoire pour comprendre les tendances globales de qualité.
Se concentrer sur les conversations à risque élevé ou à fort impact, telles que :
Scores CX faibles
Violations de politique
Menaces juridiques
Autres indicateurs spécifiques à l'entreprise
Suivre les conversations liées à une initiative spécifique, comme un lancement de fonctionnalité, un changement de tarification ou une mise à jour produit.
Les Monitors facilitent la détection des tendances, la mise en lumière précoce des problèmes et la génération d'insights à partager avec les équipes produit, support ou direction.
Comment les Monitors fonctionnent avec les Custom Scorecards
Les Monitors définissent ce qui est examiné
Les Scorecards définissent comment chaque conversation est évaluée
Les Scorecards peuvent inclure des critères qui sont examinés :
Vous pouvez associer une scorecard à un Monitor pour évaluer automatiquement chaque conversation correspondante selon des critères définis. Une fois sélectionnée, la scorecard s'exécute dès que la conversation est ajoutée au Monitor, et les résultats apparaissent dans le Monitor pour le reporting et la revue.
Cela garantit une évaluation cohérente de la qualité, tout en permettant une certaine flexibilité dans la manière dont les revues sont effectuées.
Astuce : Les Monitors peuvent utiliser l'Auto-review pour éviter complètement les vérifications manuelles lorsque le score IA atteint vos standards de qualité, ce qui signifie que votre équipe n'intervient que pour les échecs ou cas limites.
Gérez les revues à grande échelle
Au lieu de vérifier chaque Monitor individuellement, vous pouvez gérer la charge de travail de votre équipe via deux vues centralisées sur la page des Monitors :
Conversations non examinées : Une file unifiée pour toutes les conversations nécessitant une revue manuelle. Cela inclut les conversations où l'IA n'a pas pu compléter la scorecard ou où un réviseur humain est spécifiquement assigné.
Corrections nécessaires : Capture automatiquement toute conversation qui a été examinée (par l'IA ou un humain) et marquée avec un statut d'échec - par exemple, Examinée + correction nécessaire.
Bientôt disponible
Nous étendons les Monitors avec des moyens plus puissants pour détecter les problèmes, mesurer la qualité et agir. Les améliorations à venir incluent :
Alertes en temps réel : Recevez une notification lorsque les conversations dans un Monitor dépassent des seuils définis ou échouent à une scorecard.
Contrôle qualité par agent humain : Appliquez les Monitors et scorecards aux conversations des coéquipiers — pas seulement Fin.
Évaluation par rapport à votre knowledge base : Évaluez les conversations par rapport à votre contenu de support et vos politiques, aidant à garantir que les réponses sont conformes aux sources approuvées.
Commencez
Prêt à commencer ? Rendez-vous sur comment créer un Monitor pour un guide étape par étape afin de créer votre premier Monitor et scorecard.
Note : Les Monitors nécessitent le module complémentaire Pro. Assurez-vous que votre espace de travail le possède avant de configurer votre premier Monitor.



