Passer au contenu principal

Simulations vs. Tests par lot vs. Aperçus

Apprenez quand utiliser les trois outils de test de Fin — Simulations, Tests par lot, et Aperçus.

Écrit par Dawn

Cet article explique quand utiliser les trois outils de test de Fin — Simulations, Tests par lot, et Aperçus.


Référence rapide : quel outil fait quoi

Simulations

Tests par lot

Aperçus

Qu'est-ce que c'est

Test automatisé de bout en bout, propulsé par l'IA, d'une seule Procédure. L'IA agit comme un client simulé et juge le résultat selon des critères de réussite que vous définissez.

Un outil de test questions-réponses pour valider les réponses de Fin sur jusqu'à 50 questions à la fois. Teste comment Fin répond sur le contenu, les conseils, users, langues, et automatisations.

Un panneau de test manuel et interactif disponible dans toutes les zones de formation de Fin. Vous tapez des messages et voyez la réponse de Fin et le journal des événements en temps réel.

Idéal pour

Valider la logique complexe d'une Procédure de bout en bout avant la mise en production. Détecter les régressions après les mises à jour de la Procédure. Tester les cas limites et les chemins alternatifs.

Vérifier la couverture du contenu sur de nombreuses questions à la fois. Diagnostiquer les lacunes dans les connaissances, les conseils, ou les automatisations. QA pré-lancement sur audiences, marques, et langues.

Contrôles manuels rapides pendant la construction. Vérifier comment un changement spécifique — au contenu, aux conseils, aux attributs, à l'escalade, ou à une Procédure — affecte la réponse de Fin sur le moment.

Fonctionne avec

Uniquement les Procédures.

Tous les clients utilisant Fin — que ce soit avec des Procédures, des Tâches, ou juste du contenu de connaissance.

Toutes les zones de formation de Fin : Contenu, Conseils, Attributs, Escalade, Procédures, et Déploiement.

Mode de test

Automatisé — l'IA génère le côté client de la conversation et évalue le résultat avec un jugement de réussite/échec.

Automatisé — Fin génère une réponse à chaque question. Vous révisez et notez manuellement les réponses (Bon / Acceptable / Mauvais).

Manuel — vous tapez vous-même les messages et observez la réponse de Fin et le journal des événements.

Crée une vraie conversation ?

Non — fonctionne entièrement en arrière-plan. Aucune conversation inbox n'est créée.

Non — simulation uniquement. Ne crée pas de conversations inbox ni n'affecte les données clients.

Oui — les conversations Aperçus apparaissent dans votre inbox, mais sont exclues des rapports.

Appelle des API en direct ?

Non — n'appelle pas d'API externes en direct (ex. Shopify, Stripe). Teste uniquement la logique.

Non — les connecteurs de données utilisent des charges utiles de test/échantillon configurées. Pas d'appels API en direct.

Oui — peut accéder aux données réelles des users et aux intégrations en direct lors des tests en tant qu'user ou lead spécifique.

Enregistre & relance

Oui — les simulations sont enregistrées et peuvent être relancées chaque fois que la Procédure est mise à jour. Supporte Exécuter tout.

Oui — les groupes de test (jusqu'à 50 questions chacun) peuvent être enregistrés, relancés, et partagés entre coéquipiers.

Non — conversations manuelles ponctuelles. Non enregistrées ni relançables.

Jugement réussite/échec

Oui — l'IA évalue la conversation selon les critères de réussite et attribue Réussi ou Échoué avec justification complète.

Non — vous notez manuellement chaque réponse comme Bonne, Acceptable, ou Mauvaise et choisissez une cause racine.

Non — pas de jugement automatisé. Vous évaluez vous-même le résultat.

Limites d'utilisation

Oui — limite mensuelle d'exécutions basée sur le volume de conversations de l'espace de travail (50–2 500/mois). Inclus avec les Procédures sans frais supplémentaires.

Gratuit. Jusqu'à 50 questions par groupe de test.

Sans limites.

Disponibilité

Uniquement les Procédures — nécessite un accès à disponibilité gérée.

Généralement disponible pour tous les clients Fin avec un siège complet et la permission Toutes les conversations.

Généralement disponible pour tous les clients Fin.


Quand utiliser chaque outil

Utilisez Simulations lorsque

  • Vous devez valider une Procédure de bout en bout avant de la mettre en production.

  • Vous souhaitez des tests automatisés et répétables qui détectent les régressions après chaque mise à jour.

  • Votre Procédure comporte une logique de branchement, des Conditions, ou des sous-procédures — et vous avez besoin d'un cas de test distinct par chemin.

  • Vous voulez que l'IA juge le résultat selon des critères de réussite définis (réponse Fin, valeurs d'attribut, appels de connecteur de données, résultat d'instruction).

  • Vous devez tester une logique sensible au temps (ex. fenêtres de remboursement) en contrôlant le temps de simulation et les valeurs des données.

Utilisez Tests par lot lorsque

  • Vous souhaitez valider les réponses de Fin sur un large ensemble de questions — pas seulement un scénario.

  • Vous effectuez une QA pré-lancement sur contenu, conseils, audiences, langues, ou marques.

  • Vous voulez diagnostiquer les lacunes de contenu en voyant quelles sources Fin utilise pour chaque réponse.

  • Vous souhaitez tester des questions générées à partir de vraies conversations passées ou de sujets IA.

  • Vous avez besoin d'un rapport CSV téléchargeable pour partager les résultats avec votre équipe ou les dirigeants.

Utilisez Aperçus lorsque

  • Vous construisez activement et souhaitez vérifier rapidement un changement immédiatement — au contenu, aux conseils, à un attribut, une règle d'escalade, ou une Procédure.

  • Vous voulez parcourir manuellement une conversation en tant qu'user, audience, ou dans une langue spécifique.

  • Vous devez voir le journal des événements de Fin pour comprendre exactement ce qu'il a appliqué (personnalité, conseils, tâches, sources de contenu).

  • Vous souhaitez tester Fin Vision en envoyant une image ou une capture d'écran.

  • Vous validez un flux de Procédure et souhaitez voir l'expérience complète inbox client et coéquipier (y compris les automatisations en aval).


FAQ

Quelle est la différence entre Simulations et Aperçus ?

  • Les Aperçus sont manuels et interactifs : vous tapez vous-même les messages et regardez Fin répondre en temps réel. Ils sont parfaits pour des vérifications rapides pendant la construction.

  • Les Simulations sont automatisées : l'IA agit comme le client, exécute la conversation complète, et juge le résultat selon les critères de réussite que vous définissez.

  • Les Simulations ne créent pas de conversations inbox ; Aperçu oui. Utilisez Simulations lorsque vous devez valider la logique de la Procédure à grande échelle. Utilisez Aperçu pour des tests manuels en contexte.

Quelle est la différence entre Simulations et Tests par lot ?

  • Les Tests par lot vérifient comment Fin répond à un large ensemble de questions — testant la couverture du contenu, les conseils, et les automatisations sur plusieurs scénarios à la fois. Vous notez manuellement les réponses.

  • Les Simulations testent une seule Procédure de bout en bout avec un jugement automatisé par IA.

  • Les Tests par lot fonctionnent avec toutes les configurations Fin. Les Simulations sont exclusives aux Procédures.

Quelle est la différence entre Tests par lot et Aperçus ?

  • Les Tests par lot sont des exécutions QA structurées et répétables sur jusqu'à 50 questions — utiles pour les vérifications pré-lancement et le diagnostic des lacunes de contenu.

  • Les Aperçus sont non structurés et manuels — une conversation à la fois, utiles pour un retour instantané pendant la construction.

  • Les résultats des Tests par lot sont enregistrés et peuvent être exportés en CSV. Les conversations Aperçus apparaissent dans votre inbox mais ne sont pas enregistrées comme exécutions de test.

Les Simulations appellent-elles des API en direct ou affectent-elles des données réelles ?

Non. Les Simulations n'appellent pas d'API externes en direct (comme Shopify ou Stripe) et n'affectent aucune donnée réelle. Elles testent uniquement la logique. Si vous devez tester avec de vrais appels API, utilisez Aperçu et sélectionnez un user spécifique avec des données réelles dans leur système externe.

Serai-je facturé pour les Simulations ou les Tests par lot ?

Les Simulations sont incluses avec les Procédures sans frais supplémentaires. Les Tests par lot sont également gratuits (vous ne serez pas facturé pour les réponses générées via Tests par lot).

Note : Les Simulations ont une limite mensuelle d'exécutions (50–2 500 par mois selon le volume de conversations), qui se réinitialise le premier de chaque mois.

Puis-je utiliser les Tests par lot pour tester une Procédure ?

Les Tests par lot montrent si une Procédure aurait été déclenchée pour une question donnée, mais ils n'exécutent pas la Procédure ni n'évaluent sa logique de bout en bout. Pour une validation complète de la Procédure (y compris le branchement, les appels de connecteur de données, et les résultats d'instruction), utilisez les Simulations.

Quel outil de test dois-je utiliser avant la mise en production ?

Utilisez les trois en combinaison : Aperçu pour des vérifications manuelles rapides pendant la construction ; Simulations pour valider la logique de la Procédure de bout en bout avec des résultats automatisés réussite/échec ; Tests par lot pour confirmer les réponses de Fin sur un large ensemble de questions clients réelles.

Il est fortement recommandé d'exécuter des Simulations avant chaque lancement de Procédure.


Faits clés à retenir

  • Les Simulations sont exclusives aux Procédures. Elles ne peuvent pas être utilisées avec des Tâches, Workflows, ou des tests de contenu général.

  • Les Tests par lot fonctionnent pour tous les clients Fin — que ce soit avec des Procédures, des Tâches, ou juste du contenu de connaissance.

  • Les conversations Aperçus apparaissent dans l'inbox mais sont exclues des rapports.

  • Seul Aperçu peut appeler des API en direct. Les Simulations et Tests par lot sont des environnements sécurisés et isolés.

  • Les limites d'exécution des Simulations sont par espace de travail, pas par coéquipier, et se réinitialisent mensuellement.

  • Les évaluations des réponses dans les Tests par lot ne forment pas Fin — elles sont uniquement pour la revue humaine et l'analyse des causes racines.

  • Dans les Simulations, si un test réussit mais que les critères de réussite sont trop rigides (ex. nécessitant une question spécifique que Fin a trouvée), le test peut quand même échouer. Concentrez les critères de réussite sur les résultats, pas sur les étapes intermédiaires.

Avez-vous trouvé la réponse à votre question ?