Tests Utilisateurs › Mettre en Place et Conduire un Test
Apprenez à mettre en place et conduire vos tests utilisateurs : posture du facilitateur pour les tests modérés, configuration des outils pour les tests non supervisés.
Le cadre est posé, la méthode est choisie. Selon que vous avez opté pour un test modéré ou non supervisé, la mise en place est fondamentalement différente. Dans les deux cas, l’objectif reste le même : créer les conditions pour que l’utilisateur se comporte naturellement.
🗺️ Deux chemins selon la méthode choisie
Les méthodes du chapitre précédent se divisent en deux grandes familles, et leur mise en place ne se ressemble pas :
| Méthode | Mise en place |
|---|---|
| Tests modérés (guerilla, labo…) | Vous animez la session en direct — posture, relances, observation |
| Tests non supervisés (card sorting distant, session recordings, A/B test, feedback survey…) | Vous configurez un outil — l’utilisateur réalise le test seul, sans vous |
Les sections suivantes couvrent les deux cas.
🎭 Tests modérés : conduire la session
1. La posture du facilitateur
Que le test soit modéré ou non, le rôle du facilitateur est le même : créer les conditions pour que l’utilisateur se comporte naturellement.
La règle d’or : intervenir le moins possible, observer le plus possible.
Neutralité
Votre rôle n’est pas de valider votre produit. C’est d’apprendre ce qui ne fonctionne pas.
Évitez :
- Les questions fermées : « Vous avez compris, non ? »
- Les reformulations orientées : « Vous cherchiez bien le bouton “Ajouter”, c’est ça ? »
- Les réactions visibles face aux erreurs de l’utilisateur
Silence stratégique
Quand un utilisateur hésite, résistez à l’envie de l’aider. Ce silence inconfortable est précieux : c’est précisément là que les frictions se révèlent.
Reformulation neutre
Si l’utilisateur vous pose une question, renvoyez-la lui :
- « Qu’est-ce que vous feriez normalement dans cette situation ? »
- « Qu’est-ce que vous vous attendiez à trouver ici ? »
2. Dérouler la session
Accueillir et mettre en confiance
Commencez par présenter le contexte du test et rassurer le participant :
- Ce n’est pas lui qui est évalué, c’est le produit.
- Il n’y a pas de bonne ou mauvaise réponse.
- Ses retours, même négatifs, sont précieux.
Cette étape est essentielle : un utilisateur stressé ou qui cherche à « bien faire » faussera les observations.
Expliquer le cadre
Précisez :
- La durée de la session
- Les règles (verbalisez vos pensées, pas d’aide possible)
- Les aspects de confidentialité (enregistrement, utilisation des données)
- La possibilité de se retirer à tout moment
Présenter le scénario et les tâches
Remettez le scénario à l’utilisateur et expliquez les tâches. Ne montrez jamais la solution, ne guidez pas le regard.
Observer et noter
C’est le cœur du test. Notez :
- Les hésitations et points d’arrêt
- Les erreurs et mauvais clics
- Les verbatims : ce que dit l’utilisateur à voix haute
- Les comportements inattendus (scroll frénétique, retours en arrière, etc.)
- Les émotions visibles (frustration, surprise, satisfaction)
Relancer si nécessaire
Si l’utilisateur est bloqué depuis trop longtemps ou abandonne, posez des questions ouvertes et neutres :
- « Qu’est-ce qui vous manque pour continuer ? »
- « Qu’est-ce que vous vous attendiez à trouver ici ? »
- « Pouvez-vous m’expliquer votre raisonnement ? »
N’intervenez jamais pour débloquer une tâche : un échec est une donnée précieuse.
Clôturer le test
Terminez par un débriefing :
- Recueillez les impressions générales
- Posez des questions ouvertes sur les points de friction ressentis
- Notez les suggestions éventuelles
Remerciez le participant et remettez l’incentive si prévu.
3. Collecter les données
Données qualitatives
Ce sont les données les plus riches d’un test modéré :
| Type | Exemples |
|---|---|
| Verbatims | « Je ne comprends pas à quoi sert ce bouton » |
| Comportements | Hésitation prolongée, scroll répété, regard qui cherche |
| Émotions | Frustration visible, sourire de satisfaction |
| Raisonnements | Logique mentale exprimée à voix haute |
Données quantitatives
Mesurables et comparables entre participants :
| Indicateur | Description |
|---|---|
| Taux de réussite | Pourcentage de participants ayant accompli la tâche |
| Temps moyen | Temps pour accomplir chaque tâche |
| Nombre d’erreurs | Mauvais clics, chemins incorrects empruntés |
| Nombre de clics | Efficacité du parcours |
Outils de captation
Pour les tests non supervisés notamment, des outils permettent d’automatiser la collecte :
| Outil | Usage |
|---|---|
| Hotjar / Mouseflow | Enregistrements de session, heatmaps |
| FullStory | Analyse de parcours et replays |
| Maze / Useberry | Tests à distance avec métriques intégrées |
| Lookback / UserTesting | Sessions enregistrées avec participants recrutés |
4. Erreurs fréquentes à éviter
| Erreur | Pourquoi c’est problématique | Comment l’éviter |
|---|---|---|
| Guider inconsciemment | Biaise les observations | Préparer des questions neutres à l’avance |
| Trop expliquer | Masque les frictions réelles | Laisser l’utilisateur découvrir seul |
| Tester trop de choses | Dilue l’analyse | Limiter le scénario à 3-5 tâches maximum |
| Réagir aux erreurs | Met l’utilisateur mal à l’aise | Maintenir une expression neutre |
| Oublier de prendre des notes | Perte de données précieuses | Prévoir un second observateur dédié |
🤖 Tests non supervisés : configurer plutôt que conduire
Pour les tests non supervisés (card sorting distant, tree testing, session recordings, A/B testing, feedback surveys…), il n’y a pas de facilitateur. L’utilisateur réalise le test seul. Votre travail se joue avant le lancement.
Rédiger des instructions claires
Sans vous pour clarifier, vos instructions doivent être auto-suffisantes :
- Contexte du test expliqué en 2-3 phrases
- Tâches formulées de façon orientée objectif, sans guider la solution
- Consigne explicite : « Il n’y a pas de bonne ou mauvaise réponse »
Choisir et configurer l’outil
Chaque type de test non supervisé a ses outils dédiés :
| Type de test | Outils |
|---|---|
| Card sorting / Tree testing | Optimal Workshop, Maze, Useberry |
| Session recordings / Heatmaps | Hotjar, Mouseflow, FullStory |
| Feedback survey | Typeform, Google Forms, Hotjar Surveys |
| A/B testing | Optimizely, VWO, AB Tasty |
| Tests de parcours à distance | Maze, UserTesting, Lookback |
Configurez les métriques à capturer en amont : taux de réussite, temps par tâche, chemins empruntés, réponses post-test.
Tester avant de diffuser
Réalisez le test vous-même avant de l’envoyer aux participants. Vérifiez :
- Les instructions sont comprises sans ambiguïté
- L’outil enregistre correctement les métriques
- Le lien fonctionne sur les appareils cibles
Diffuser et collecter
Envoyez le lien à votre panel. Fixez une date limite de collecte et visez le nombre de participants défini lors du cadrage (minimum 5 par segment).
Vous avez conduit vos sessions. Vous avez des notes, des enregistrements, des verbatims. Il ne reste plus qu’à transformer tout ça en décisions produit. Direction le chapitre suivant : l’analyse et la restitution.