Tests Utilisateurs › Mettre en Place et Conduire un Test

Apprenez à mettre en place et conduire vos tests utilisateurs : posture du facilitateur pour les tests modérés, configuration des outils pour les tests non supervisés.

Icône de calendrier
Débutant
4 chapitres
Bannière publicitaire Hostinger

Le cadre est posé, la méthode est choisie. Selon que vous avez opté pour un test modéré ou non supervisé, la mise en place est fondamentalement différente. Dans les deux cas, l’objectif reste le même : créer les conditions pour que l’utilisateur se comporte naturellement.

🗺️ Deux chemins selon la méthode choisie

Les méthodes du chapitre précédent se divisent en deux grandes familles, et leur mise en place ne se ressemble pas :

MéthodeMise en place
Tests modérés (guerilla, labo…)Vous animez la session en direct — posture, relances, observation
Tests non supervisés (card sorting distant, session recordings, A/B test, feedback survey…)Vous configurez un outil — l’utilisateur réalise le test seul, sans vous

Les sections suivantes couvrent les deux cas.

🎭 Tests modérés : conduire la session

1. La posture du facilitateur

Que le test soit modéré ou non, le rôle du facilitateur est le même : créer les conditions pour que l’utilisateur se comporte naturellement.

La règle d’or : intervenir le moins possible, observer le plus possible.

Neutralité

Votre rôle n’est pas de valider votre produit. C’est d’apprendre ce qui ne fonctionne pas.

Évitez :

  • Les questions fermées : « Vous avez compris, non ? »
  • Les reformulations orientées : « Vous cherchiez bien le bouton “Ajouter”, c’est ça ? »
  • Les réactions visibles face aux erreurs de l’utilisateur

Silence stratégique

Quand un utilisateur hésite, résistez à l’envie de l’aider. Ce silence inconfortable est précieux : c’est précisément là que les frictions se révèlent.

Reformulation neutre

Si l’utilisateur vous pose une question, renvoyez-la lui :

  • « Qu’est-ce que vous feriez normalement dans cette situation ? »
  • « Qu’est-ce que vous vous attendiez à trouver ici ? »

2. Dérouler la session

Accueillir et mettre en confiance

Commencez par présenter le contexte du test et rassurer le participant :

  • Ce n’est pas lui qui est évalué, c’est le produit.
  • Il n’y a pas de bonne ou mauvaise réponse.
  • Ses retours, même négatifs, sont précieux.

Cette étape est essentielle : un utilisateur stressé ou qui cherche à « bien faire » faussera les observations.

Expliquer le cadre

Précisez :

  • La durée de la session
  • Les règles (verbalisez vos pensées, pas d’aide possible)
  • Les aspects de confidentialité (enregistrement, utilisation des données)
  • La possibilité de se retirer à tout moment

Présenter le scénario et les tâches

Remettez le scénario à l’utilisateur et expliquez les tâches. Ne montrez jamais la solution, ne guidez pas le regard.

Observer et noter

C’est le cœur du test. Notez :

  • Les hésitations et points d’arrêt
  • Les erreurs et mauvais clics
  • Les verbatims : ce que dit l’utilisateur à voix haute
  • Les comportements inattendus (scroll frénétique, retours en arrière, etc.)
  • Les émotions visibles (frustration, surprise, satisfaction)

Relancer si nécessaire

Si l’utilisateur est bloqué depuis trop longtemps ou abandonne, posez des questions ouvertes et neutres :

  • « Qu’est-ce qui vous manque pour continuer ? »
  • « Qu’est-ce que vous vous attendiez à trouver ici ? »
  • « Pouvez-vous m’expliquer votre raisonnement ? »

N’intervenez jamais pour débloquer une tâche : un échec est une donnée précieuse.

Clôturer le test

Terminez par un débriefing :

  • Recueillez les impressions générales
  • Posez des questions ouvertes sur les points de friction ressentis
  • Notez les suggestions éventuelles

Remerciez le participant et remettez l’incentive si prévu.

3. Collecter les données

Données qualitatives

Ce sont les données les plus riches d’un test modéré :

TypeExemples
Verbatims« Je ne comprends pas à quoi sert ce bouton »
ComportementsHésitation prolongée, scroll répété, regard qui cherche
ÉmotionsFrustration visible, sourire de satisfaction
RaisonnementsLogique mentale exprimée à voix haute

Données quantitatives

Mesurables et comparables entre participants :

IndicateurDescription
Taux de réussitePourcentage de participants ayant accompli la tâche
Temps moyenTemps pour accomplir chaque tâche
Nombre d’erreursMauvais clics, chemins incorrects empruntés
Nombre de clicsEfficacité du parcours

Outils de captation

Pour les tests non supervisés notamment, des outils permettent d’automatiser la collecte :

OutilUsage
Hotjar / MouseflowEnregistrements de session, heatmaps
FullStoryAnalyse de parcours et replays
Maze / UseberryTests à distance avec métriques intégrées
Lookback / UserTestingSessions enregistrées avec participants recrutés

4. Erreurs fréquentes à éviter

ErreurPourquoi c’est problématiqueComment l’éviter
Guider inconsciemmentBiaise les observationsPréparer des questions neutres à l’avance
Trop expliquerMasque les frictions réellesLaisser l’utilisateur découvrir seul
Tester trop de chosesDilue l’analyseLimiter le scénario à 3-5 tâches maximum
Réagir aux erreursMet l’utilisateur mal à l’aiseMaintenir une expression neutre
Oublier de prendre des notesPerte de données précieusesPrévoir un second observateur dédié

🤖 Tests non supervisés : configurer plutôt que conduire

Pour les tests non supervisés (card sorting distant, tree testing, session recordings, A/B testing, feedback surveys…), il n’y a pas de facilitateur. L’utilisateur réalise le test seul. Votre travail se joue avant le lancement.

Rédiger des instructions claires

Sans vous pour clarifier, vos instructions doivent être auto-suffisantes :

  • Contexte du test expliqué en 2-3 phrases
  • Tâches formulées de façon orientée objectif, sans guider la solution
  • Consigne explicite : « Il n’y a pas de bonne ou mauvaise réponse »

Choisir et configurer l’outil

Chaque type de test non supervisé a ses outils dédiés :

Type de testOutils
Card sorting / Tree testingOptimal Workshop, Maze, Useberry
Session recordings / HeatmapsHotjar, Mouseflow, FullStory
Feedback surveyTypeform, Google Forms, Hotjar Surveys
A/B testingOptimizely, VWO, AB Tasty
Tests de parcours à distanceMaze, UserTesting, Lookback

Configurez les métriques à capturer en amont : taux de réussite, temps par tâche, chemins empruntés, réponses post-test.

Tester avant de diffuser

Réalisez le test vous-même avant de l’envoyer aux participants. Vérifiez :

  • Les instructions sont comprises sans ambiguïté
  • L’outil enregistre correctement les métriques
  • Le lien fonctionne sur les appareils cibles

Diffuser et collecter

Envoyez le lien à votre panel. Fixez une date limite de collecte et visez le nombre de participants défini lors du cadrage (minimum 5 par segment).

Vous avez conduit vos sessions. Vous avez des notes, des enregistrements, des verbatims. Il ne reste plus qu’à transformer tout ça en décisions produit. Direction le chapitre suivant : l’analyse et la restitution.