La fiabilité inter-évaluateurs fait référence aux mesures statistiques qui déterminent la similitude des données recueillies par différents évaluateurs. Un évaluateur est une personne qui note ou mesure une performance, un comportement ou une compétence chez un humain ou un animal. Par exemple, un enquêteur, un psychologue qui mesure le nombre de fois qu’un sujet se gratte la tête au cours d’une expérience et un scientifique qui observe le nombre de fois qu’un singe ramasse un jouet.
Il est important que les évaluateurs aient des observations aussi proches que possible des mêmes observations – cela garantit la validité de l’expérience. Si les évaluateurs diffèrent de manière significative dans leurs observations, alors les mesures ou la méthodologie ne sont pas correctes et doivent être affinées. Dans certains cas, les évaluateurs peuvent avoir été formés de différentes manières et doivent être formés à nouveau sur la façon de compter les observations afin qu’ils le fassent tous de la même manière.
Il existe quelques mesures statistiques qui sont utilisées pour tester si la différence entre les évaluateurs est significative ou non. Un exemple d’utilisation de la fiabilité inter-évaluateurs serait une évaluation des performances professionnelles par des chefs de bureau. Si l’employé évalué reçoit une note de 9 (une note de 10 étant parfaite) de la part de trois responsables et une note de 2 de la part d’un autre responsable, la fiabilité inter-évaluateurs peut être utilisée pour déterminer que quelque chose ne va pas dans la méthode de notation. Il pourrait y avoir de nombreuses explications à ce manque de consensus (les managers n’ont pas compris comment le système de notation fonctionnait et l’ont fait de manière incorrecte, le manager ayant obtenu la note la plus basse avait une dent contre l’employé, etc.) et la fiabilité inter-juges expose ces problèmes possibles afin qu’ils puissent être corrigés.
Catégories : Articles
0 commentaire