La fiabilidad entre evaluadores se refiere a las medidas estadísticas que determinan la similitud de los datos recogidos por diferentes evaluadores. Un calificador es alguien que puntúa o mide un rendimiento, comportamiento o habilidad en un ser humano o animal. Ejemplos de calificadores serían un entrevistador de trabajo, un psicólogo que mide cuántas veces se rasca la cabeza un sujeto en un experimento y un científico que observa cuántas veces coge un juguete un mono.
Es importante que los calificadores tengan lo más parecido posible a las mismas observaciones – esto asegura la validez del experimento. Si los evaluadores difieren significativamente en sus observaciones, entonces las mediciones o la metodología no son correctas y deben refinarse. En algunos casos, los calificadores pueden haber sido entrenados de diferentes maneras y necesitan ser reentrenados en cómo contar las observaciones para que todos lo hagan de la misma manera.
Hay algunas medidas estadísticas que se utilizan para comprobar si la diferencia entre los calificadores es o no significativa. Un ejemplo de uso de la fiabilidad entre calificadores sería la evaluación del rendimiento laboral por parte de los directores de oficina. Si el empleado evaluado recibe una puntuación de 9 (la puntuación de 10 es perfecta) por parte de tres jefes y una puntuación de 2 por parte de otro jefe, la fiabilidad entre evaluadores podría utilizarse para determinar que algo no funciona bien en el método de puntuación. Podría haber muchas explicaciones para esta falta de consenso (los gerentes no entendían cómo funcionaba el sistema de puntuación y lo hacían de forma incorrecta, el gerente con la puntuación más baja tenía un rencor contra el empleado, etc.) y la fiabilidad entre evaluadores expone estos posibles problemas para que puedan ser corregidos.

Categorías: Articles

0 comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *