Un objetivo central de la mayoría de las investigaciones es la identificación de relaciones causales, o la demostración de que una determinada variable independiente (la causa) tiene un efecto sobre la variable dependiente de interés (el efecto). Los tres criterios para establecer la causa y el efecto -asociación, ordenación temporal (o precedencia temporal) y ausencia de espinosidad- son conocidos por la mayoría de los investigadores en los cursos de métodos de investigación o estadística. Aunque los ejemplos clásicos utilizados para ilustrar estos criterios pueden dar a entender que establecer la causa y el efecto es sencillo, a menudo es uno de los aspectos más difíciles de diseñar estudios de investigación para su aplicación en condiciones del mundo real.

El primer paso para establecer la causalidad es demostrar la asociación; dicho de forma sencilla, ¿existe una relación entre la variable independiente y la variable dependiente? Si ambas variables son numéricas, esto puede establecerse observando la correlación entre ambas para determinar si parecen transmitirse. Un ejemplo común es la relación entre la educación y los ingresos: en general, los individuos con más años de educación también suelen tener mayores ingresos. La tabulación cruzada, que clasifica de forma cruzada las distribuciones de dos variables categóricas, también puede utilizarse para examinar la asociación. Por ejemplo, podemos observar que el 60% de los protestantes apoyan la pena de muerte mientras que sólo el 35% de los católicos lo hacen, estableciendo una asociación entre la denominación y las actitudes hacia la pena capital. Existe un debate en curso sobre cuán estrechamente asociadas deben estar las variables para hacer una afirmación causal, pero en general los investigadores están más preocupados por la significación estadística de una asociación (si es probable que exista en la población) que por la fuerza real de la asociación.

Una vez que se ha establecido una asociación, nuestra atención se centra en determinar el orden temporal de las variables de interés. Para que la variable independiente cause la variable dependiente, la lógica dicta que la variable independiente debe ocurrir primero en el tiempo; en resumen, la causa debe venir antes que el efecto. Este orden temporal es fácil de garantizar en un diseño experimental en el que el investigador controla cuidadosamente la exposición al tratamiento (que sería la variable independiente) y luego mide el resultado de interés (la variable dependiente). En los diseños transversales, el ordenamiento temporal puede ser mucho más difícil de determinar, especialmente cuando la relación entre las variables podría ir razonablemente en la dirección opuesta. Por ejemplo, aunque la educación suele preceder a los ingresos, es posible que los individuos que se ganan bien la vida tengan finalmente el dinero necesario para volver a estudiar. Por lo tanto, determinar el orden temporal puede implicar el uso de la lógica, la investigación existente y el sentido común cuando no es posible un diseño experimental controlado. En cualquier caso, los investigadores deben ser muy cuidadosos a la hora de especificar la dirección hipotética de la relación entre las variables y aportar pruebas (teóricas o empíricas) que respalden su afirmación.

El tercer criterio de causalidad es también el más problemático, ya que requiere que se descarten explicaciones alternativas para la relación observada entre dos variables. Esto se denomina no espurio, que significa simplemente «no falso». Existe una relación espuria o falsa cuando lo que parece ser una asociación entre las dos variables está en realidad causado por una tercera variable extraña. Entre los ejemplos clásicos de espuriosidad se encuentra la relación entre la talla de los zapatos de los niños y sus conocimientos académicos: a medida que aumenta la talla de los zapatos también lo hacen los conocimientos, pero, por supuesto, ambos están también muy relacionados con la edad. Otro ejemplo muy conocido es la relación entre el número de bomberos que acuden a un incendio y la cantidad de daños que se producen: evidentemente, el tamaño del incendio determina ambas cosas, por lo que es inexacto decir que más bomberos provocan mayores daños. Aunque estos ejemplos parecen sencillos, los investigadores de los campos de la psicología, la educación y las ciencias sociales se enfrentan a menudo a retos mucho mayores para descartar relaciones espurias, simplemente porque hay muchos otros factores que pueden influir en la relación entre dos variables. Un diseño de estudio adecuado (utilizando procedimientos experimentales siempre que sea posible), una recogida de datos cuidadosa y el uso de controles estadísticos, así como la triangulación de muchas fuentes de datos, son esenciales cuando se trata de establecer relaciones no espurias entre variables.

Categorías: Articles

0 comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *