C’est devenu l’obsession de toute entreprise, et donc de tout organisme de formation : la satisfaction de ses clients.
Même si on parle davantage de stagiaires ou de bénéficiaires pour le secteur de la formation professionnelle, un constat s’impose : la digitalisation a modifié notre manière de choisir. Aujourd’hui, chaque produit et chaque service possède sa propre évaluation, disponible en un clic sur internet. Les avis Google, les sites vitrines des entreprises ou encore les évaluations sur les plateformes de financement sont omniprésents : impossible d’y échapper.
Si cette évolution semble positive par certains aspects, c’est aussi un piège qui ne mesure qu’une partie des choses. Elle se limite souvent à une évaluation partielle, faisant fi de la différence entre qualité perçue et qualité réelle. Et si la quête effrénée du stagiaire heureux ne rendait pas toujours service ?
Le stagiaire-client : une réalité incontournable
Le marché de la formation professionnelle a considérablement changé au cours des 20 dernières années. La concurrence s’est clairement intensifiée, en témoigne la croissance presque ininterrompue des numéros de déclarations d’activité (NDA). Il en résulte que le choix des stagiaires s’est également largement étendu, en faisant une sorte de jungle dans laquelle choisir le bon prestataire est loin. d’être évident.
L’exemple le plus marquant est sans doute celui lié à la libéralisation de l’apprentissage en 2018 qui a littéralement fait exploser l’offre de formation. Ce phénomène a entrainé avec lui de nombreuses dérives faisant craindre un réel risque pour la qualité des formations vendues.
Dans ce contexte, il est tentant pour les organismes d’utiliser des arguments marketings de poids en se servant de ceux qui sont déjà tombés entre les mailles de leur filet : les anciens stagiaires. Ceux qu’ils disent de nous, comment ils nous évaluent, à quel point ils nous recommandent. Voilà le trésor pour n’importe quel organisme. La preuve sociale ultime qui génèrera de nouveaux clients. Et le fait est que ça marche. Dans une certaine mesure toutefois…
Les biais des évaluations de satisfaction
Les bonnes évaluations font toujours plaisir. Elles rassurent les clients. Elles nous rassurent nous-mêmes en tant qu’organisme de formation. Mais de nombreux biais existent dans la manière dont elles sont formalisées et restituées. Il est donc important de comprendre ce qu’on évalue réellement.
Formulation des questions
Tout comme dans les études d’opinions, la formulation de certaines questions peut influencer la réponse. L’utilisation de la double négation, par exemple : « N’êtes-vous pas d’accord que notre service client a répondu à vos attentes ? » peut par exemple biaiser les réponses. Même si cet exemple semble un peu caricatural, une bonne pratique reste de poser des questions précises, courtes et sans équivoque pour éviter ce biais.
Choix de l’échelle de mesure
L’utilisation d’une échelle de mesure inappropriée peut également influencer les résultats. Parmi les principales échelles utilisées, on retrouvera notamment :
L’échelle de 1 à 10 (de mauvais à excellent)
L’échelle de 1 à 4 (même principe, mais moindre granularité)
Le système d’étoile (de 1 à 5 en général)
Ces échelles permettent la plupart du temps de calculer le fameux NPS (« Net Promoter Score ») dont le score permet de mesurer la capacité des stagiaires à recommander les prestations d’une entreprise.
La valeur des échelles n’est pourtant pas exempte de reproches, notamment, car chaque individu a son propre référentiel et une prestation considérée comme bonne peut valoir un 9/10 pour un individu et un 7/10 pour un autre.
De même, une trop large granularité, ou des intervalles de notation trop élevés peuvent rendre difficile la bonne appréciation d’une prestation de formation.
Biais de sélection
La représentativité des résultats est un vrai casse-tête. Quelle valeur peut avoir un indicateur nourri par moins de 10 % des stagiaires formés. Sans un niveau significatif de retours, la valeur des données reçues est proche de zéro.
On peut aussi avoir la tentation de ne mettre en avant que les indicateurs qualité qui nous mettent en valeur, voire les interpréter en notre faveur. A contrario, on préfèrera minorer ceux qui sont davantage en notre défaveur.
Ex : on peut mettre en avant les 98 % de satisfaction, mais ne pas communiquer sur le fait que seuls 30 % des stagiaires utilisent les acquis de la formation dans leur métier.
Biais de l’enquêteur
Un autre travers est la collecte et le traitement de ces questionnaires de satisfaction, souvent faite par l’organisme lui-même. Ces indicateurs de qualité peuvent ainsi plus facilement être façonnés à son avantage.
C’est pour cela que, si l’on est en quête d’une formation, il vaut mieux croiser ces chiffres avec de véritables preuves sociales sur des plateformes qui ont un peu de crédibilité. Un tiers de confiance, ça aide à déjouer les illusions et à voir les choses sous un angle un peu plus honnête.
Exemple d’applications tierces : Avis Google, Réseaux sociaux, plateforme de financeurs comme Mon Compte Formation ou Anothea (France Travail).
Se tromper sur ce qu’on évalue
Au-delà de ces biais, la satisfaction immédiate des stagiaires peut s’avérer trompeuse. En fait, se pose la véritable question du pourquoi l’on se forme. Est-ce pour être satisfait ou pour développer des compétences ?
En réalité, les vraies questions qu’on devrait se poser à l’issue d’une formation sont les suivantes :
A-t-elle atteint ses objectifs ?
Est-ce que je me sens plus efficace ?
A-t-elle permis de transformer mes pratiques ?
Ma valeur sur le marché du travail s’en trouve-t-elle grandie ?
On voit souvent des questionnaires de fin de formation demander d’évaluer des aspects non essentiels, mais faisant partie de l’expérience de formation : le confort des locaux, la qualité de la restauration ou de l’accueil. S’il demeure important de vérifier que ces promesses sont tenues, cela ne garantit pas pour autant l’efficacité de la formation. Il ne serait dommage d’arriver à un stade où :
Les stagiaires sont contents, mais n’ont rien appris de concret.
L’ambiance de formation était excellente, mais les compétences acquises sont superficielles.
Le formateur a diverti l’assistance, mais aucun changement de pratique professionnelle ne s’est produit.
Comment trouver le bon équilibre ?
Il est bien sûr tout à fait possible de concilier satisfaction et efficacité pédagogique. D’ailleurs, bien souvent, la satisfaction ressentie reste liée aux résultats de l’action de formation. L’usage de certains modèles comme celui de Kirkpatrick permettent de construire des critères d’évaluation pertinents en allant au-delà de la simple réaction (le niveau 1 du modèle) pour se concentrer sur les résultats en termes d’acquis, de transfert des apprentissages et de résultats en situation profession (les niveaux 2 à 4), ce qu’on pourrait qualifier comme le réel impact de la formation.
Toutefois, pour évaluer certains de ces aspects, l’évaluation doit pouvoir se faire en complémentarité avec l’employeur. Les difficultés organisationnelles, l’absence d’engagement du management ou tout simplement le surcoût que cela peut occasionner explique en grande partie que ces évaluations ne soient pas plus répandues.
Les 4 niveaux du modèle de Kirkpatrick
Au-delà de ces aspects, un autre manière de mesurer la qualité d’une prestation reste l’employabilité de la personne ayant suivi la formation. Sur des formations certifiantes et/ou qualifiantes, on peut par exemple mesurer le taux d’insertion professionnelle dans le domaine visé suite à la formation.
Tricher ne mène à rien sur le long terme
La pression commerciale reste forte pour les organismes. Pour autant, le véritable enjeu de ces structures reste leurs stagiaires, que ce soit par le souvenir laissé chez eux par les formations, mais également, et surtout, leur impact professionnel. À la longue, quand on forme efficacement, cela se sait. Alors autant valoriser ce qui a le plus de crédibilité et d’intérêt pour les futurs clients.
L’article Satisfait = Qualité ? Et si c’était plus compliqué ? est apparu en premier sur Digiformag.