Fiabilidade Inter-Rater refere-se a medições estatísticas que determinam quão semelhantes são os dados recolhidos por diferentes avaliadores. Um avaliador é alguém que está a pontuar ou a medir um desempenho, comportamento ou habilidade num humano ou animal. Exemplos de avaliadores seriam um entrevistador de trabalho, um psicólogo que mede quantas vezes um sujeito risca a cabeça numa experiência, e um cientista que observa quantas vezes um macaco pega num brinquedo.
É importante que os avaliadores tenham o mais próximo possível das mesmas observações – isto assegura a validade na experiência. Se os avaliadores diferirem significativamente nas suas observações, então ou as medições ou a metodologia não são correctas e precisam de ser refinadas. Em alguns casos, os avaliadores podem ter sido treinados de maneiras diferentes e precisam de ser requalificados em como contar as observações para que todos o façam da mesma forma.
Há algumas medições estatísticas que são utilizadas para testar se a diferença entre os avaliadores é ou não significativa. Um exemplo utilizando a fiabilidade entre avaliadores seria uma avaliação do desempenho do trabalho por gestores de escritório. Se o funcionário avaliado recebesse uma pontuação de 9 (sendo perfeita uma pontuação de 10) de três gestores e uma pontuação de 2 de outro gestor, então a fiabilidade entre avaliadores poderia ser utilizada para determinar que algo está errado com o método de pontuação. Poderia haver muitas explicações para esta falta de consenso (os gestores não compreenderam como funcionava o sistema de pontuação e fizeram-no incorrectamente, o gestor com pontuação baixa tinha um rancor contra o funcionário, etc.) e a fiabilidade entre avaliadores expõe estas possíveis questões para que possam ser corrigidas.
Categorias: Articles
0 comentários