Medicina Basada en la Evidencia
Correlación. Modelos de regresión… – 595 – Como ocurre con el resto de las técnicas no paramétri- cas, no se emplean los datos directos para el cálculo del coeficiente, sino su transformación en rangos. El coefi- ciente de Spearman no precisa asumir el supuesto de normalidad de las variables, por lo que puede utilizarse cuando no se cumplen los supuestos necesarios para el coeficiente de correlación de Pearson. Aunque la potencia del coeficiente de Spearman es me- nor que la del coeficiente de Pearson, tiene una serie de ventajas sobre este último. En primer lugar, no exi- ge supuesto de linealidad, por lo que puede utilizarse en casos de relación logística y exponencial. Solo debe cumplirse que la relación entre las dos variables sea mo- nótona, lo cual quiere decir que cuando una de las varia- bles cambia, la otra lo hace con una tendencia constante. En segundo lugar, como ya se ha dicho, al ser una prue- ba no paramétrica, no precisa asumir el supuesto de normalidad de las variables. Por último, al calcularse con los rangos en lugar de con los datos directos, es mucho más robusto a la presencia de valores extremos que el coeficiente de Pearson. Volviendo al ejemplo anterior: Partiendo de la base de datos sobre niños asmáticos, vamos a suponer que no se cumple alguno de los tres requisitos necesarios para poder emplear el coeficien- te de Pearson. En ese caso, podríamos calcular su al- ternativa no paramétrica, el coeficiente de correlación de Spearman. En el Anexo 2 de este capítulo se muestran las instruc- ciones para realizar este ejercicio. El programa nos ofrece un valor del coeficiente ρ = 0,85, con un valor de p <0,05. En el caso del coeficiente de Spearman, RCommander no calcula de forma direc- ta su intervalo de confianza, para lo cual habría que recurrir a paquetes adicionales. Al igual que en el ejemplo anterior, podemos concluir que existe una asociación alta entre las dos variables. 3. Otros coeficientes de correlación Además, existen otros coeficientes, el más utilizado de los cuales es el coeficiente tau de Kendall (τ). La tau de Kendall es otra alternativa no paramétrica, cuyo uso puede preferirse al de Spearman en aquellos casos de muestras pequeñas y en las que exista una alta ligadura de rangos (al ordenar los datos por rangos, existen múltiples coincidencias en la misma posición). Otros coeficientes menos utilizados son el coeficiente de correlación parcial , que estudia la relación entre dos variables, pero teniendo en cuenta y eliminando la influencia de otras variables existentes; el coeficiente de correlación semiparcial , similar al anterior, pero que discrimina el efecto de terceras variables sobre las dos correlacionadas de forma independiente (no sobre las dos de forma simultánea, como el coeficiente parcial); y el coeficiente de correlación múltiple , que permite co- nocer la correlación entre una variable y un conjunto de variables, todas ellas cuantitativas. REGRESIÓN La idea es similar a la correlación y a veces se confunde con ella. Es importante aclarar la diferencia entre corre- lación y regresión. La correlación solo indica la fuerza de la relación entre dos variables. La regresión permite estimar o predecir el valor de una variable dependiente o explicativa en función del valor que tome la otra va- riable, la independiente o de respuesta. Mientras que la correlación mide únicamente la fuerza y dirección de la asociación entre dos variables, la regresión permite estimar los valores de una de ellas (dependiente) a partir de los valores de la otra (independiente) La regresión es un instrumento potente porque puede demostrar la asociación entre muchas variables expli- cativas y la variable respuesta, y puede ponderar el efecto independiente de cada una de ellas. También permite mostrar relaciones no lineales entre las varia- bles explicativas y la de respuesta. En general, describimos la regresión como simple o univariable cuando en el modelo solo se incluye una variable independiente; esto contrasta con la regresión múltiple o multivariable, en la que intervienen dos o más variables independientes o predictoras. MODELOS DE REGRESIÓN Si tomamos una variable independiente “x” y una va- riable dependiente “y”, todos los modelos de regresión simple se ajustan a la siguiente ecuación: Función(y) = a + bx + e El componente “Función(y)” dependerá del tipo de va- riable dependiente del modelo, lo que nos condicio- nará el modelo de regresión concreto que tendremos que utilizar. En la Figura 2 se muestra un ejemplo de diagrama de dispersión de dos variables con la línea de regresión del modelo, en este caso lineal, así como el significado de los diferentes coeficientes de la ecuación de regresión: “a” y “b” son los denominados coeficien- tes de regresión.
RkJQdWJsaXNoZXIy MTAwMjkz