Aucun professionnel de la formation et de la certification n’est passé à côté : l’irruption de l’intelligence artificielle générative entraînent des évolutions dans les modalités de formation mais aussi dans les fondements mêmes de l’évaluation certificative.
Pour les acteurs de la formation professionnelle et futurs certificateurs RNCP/RS, l’heure est à la réflexion :
Faut-il interdire l’IA ? Peut-on l’autoriser dans les évaluations ? Jusqu’où peut-on aller dans l’automatisation sans compromettre la cohérence d’évaluations bien fondées et dénuées de biais ? Comment peut-elle être mobilisée pour soulager le travail des évaluateurs, voire l’objectiver ? Peut-on aller jusqu’à remplacer les évaluateurs, selon la nature des évaluations ? Peut-elle intervenir dans les délibérations certificatives ? Doit-elle être autorisée comme outil au service des candidats, sans prendre le risque que les productions de ces derniers soient dénuées de toute vraie réflexion et compétences ?
Ce débat ne fait que commencer… et dans le fond, toutes ces questions soulèvent celle de savoir quelle est (encore) la place de l’humain.
Faut-il (encore) un jury humain pour évaluer les compétences ?
Face à toutes sortes de nouveaux outils capables d’analyser un texte, de corriger un devoir ou de détecter une tricherie, il serait tentant de laisser l’IA prendre le relais du jury humain, au nom de la rapidité ou de la standardisation. Elle pourrait constituer également une véritable solution à la problématique de mobilisation de jurys évaluateurs, voire certificateurs, malheureusement pas toujours disponibles faute de temps et à cause, pour certains, des conditions d’intervention : un lien de subordination, et donc une rémunération. Ce qui soulève la question de l’impartialité. Mais c’est là un autre sujet, quoique.
Bref, la tentation est là, mais attention : une certification RNCP/RS repose sur des fondements que seule une évaluation encadrée par un humain, contextuelle et experte peut véritablement garantir.
Pourquoi ne peut-on pas « remplacer » un jury humain ?
- Parce qu’évaluer une compétence ne se limite pas à vérifier un résultat : cela implique de comprendre le raisonnement, d’interpréter une posture, de questionner une intention. De ce fait, outre le volet jury, c’est aussi du candidat que cela se passe : par exemple, pour des évaluations de type rapport à rédiger, pour lequel l’IA serait tout à fait mobilisable, un oral en complément permettra au jury de s’assurer qu’elle a bien été utilisée comme outil et non comme le ghostwriter du candidat.
- Parce que les productions d’un candidat sont souvent nuancées, contextualisées et nécessitent un jugement expert, qui dépasse la logique binaire d’un algorithme, à ce jour en tout cas.
- Parce que l’évaluation implique aussi une relation : c’est dans l’échange, notamment à l’oral, que se révèlent la compréhension, l’adaptabilité, la maîtrise réelle.
Côté RGPD, c’est plutôt très clair : aucune décision produisant des effets juridiques (comme l’attribution d’un diplôme ou d’une certification professionnelle) ne peut reposer uniquement sur un traitement automatisé.
Dans ce cas, peut-on imaginer « un binôme de choc » ?
Un vrai teaser de film de science-fiction : « un jury humain… épaulé par l’IA : elle peut générer une note… il peut valider une compétence ».
En somme, un outil, ni plus, ni moins. Par exemple : un assistant pour l’analyse de copies écrites (pré-correction, surlignage d’éléments à vérifier), une aide à la cohérence des notations (standardisation sur un barème), un outil de vigilance sur les suspicions de plagiat ou de triche, à manier avec prudence, bien entendu, ou encore un support à la gestion des volumes lorsque les jurys évaluent de grands effectifs.
L’IA peut donc être envisagée pour seconder l’humain qui conserve la prise de décision finale, responsable et argumentée. Bien entendu cela suppose de former les jurys à la lecture critique des suggestions de l’IA, pour notamment en connaître les limites (biais, faux positifs, mauvaise « interprétation »).
Pour faire simple, l’IA ne remplace pas le jury, mais l’invite à évoluer.
Côté candidat : peut-on l’autoriser à utiliser l’IA pendant une évaluation ?
Si pour certains elle est perçue comme source de triche, il faut garder à l’esprit qu’elle devient un outil de travail courant dans les entreprises. De fait, interdire son usage en évaluation ne semble pas pertinent, mais sous conditions. Il faut en faire un moyen au service de compétences, voire des compétences à part entière, selon la nature de la certification.
Par exemple un candidat à un titre de développeur qui utilise Copilot pour gagner du temps sur du code répétitif, mais qui devra rester capable de justifier son choix et d’optimiser le résultat, ou un professionnel du marketing qui pour obtenir une certification RS en utilisation de l’IA dans une campagne digitalisée d’acquisition clients qui l’utiliserait pour en créer la maquette tout en expliquant le positionnement stratégique et la cible définie.
Au final, l’IA ne dévalorise pas une certification, mais elle nécessite d’être assortie de moyens pour relever le « défi de l’authenticité ».
Pour conclure ce n’est, à priori, pas l’outil qui compte, mais la compétence de l’usager.
L’usage de l’IA ne doit donc ni masquer une lacune, ni remplacer la réflexion du candidat. Il peut, en revanche, être un révélateur de compétence numérique, d’esprit critique et d’adaptabilité, qui sont des atouts très recherchées sur le marché du travail (notamment chez les professionnels appelés à assurer la mission d’évaluateur).
L’article IA et certifications RNCP/RS : quels impacts et évolutions laissent entrevoir l’utilisation de ce nouvel outil ? est apparu en premier sur Digiformag.
