Medicina Basada en la Evidencia
Estadística básica – 586 – cada individuo. El primer componente es la suma de cuadrados entre grupos diferentes. También se conoce como variabilidad entre los tratamientos o entre gru- pos. El segundo componente es la suma de cuadrados intragrupos, también denominado suma de cuadrados de los errores o residuales . Así, la suma de cuadrados (SC) total puede expresarse de la forma siguiente: SC total = SC entre grupos + SC intragrupos (residual) Existen fórmulas para calcular las diferentes sumas de cuadrados, pero no merece la pena entrar en detalle, ya que lo recomendable es utilizar uno de los programas estadísticos que lo calculan de forma automática. Con todos estos componentes podremos, finalmente, elaborar la tabla del ANOVA ( Tabla 1 ). Como vemos, dividiendo la suma de cuadrados entre grupos e intragrupos por sus respectivos grados de li- bertad, obtendremos las varianzas entre grupos e intra- grupos, respectivamente. El cociente de las dos varian- zas sigue una distribución de la F de Snedecor con k – 1, n – k grados de libertad, lo que nos permitirá calcular la probabilidad del valor encontrado, siendo n el tamaño muestral total y k el número de grupos a analizar, el número total de grados de libertad ( n – 1 ) se divide en- tre los dos componentes, siendo de k – 1 los grados de libertad de la variabilidad entre grupos y n – k la de la variabilidad intragrupos. El ANOVA compara medias a través del análisis de sus varianzas. Si encuentra diferencias de varianzas no debidas al azar, se rechaza la hipótesis nula de igualdad de medias entre los distintos grupos Bajo el supuesto de la hipótesis nula, el valor de F debe estar próximo a la unidad. Cuanto más se aleje por en- cima de 1, más probable será que la diferencia entre las dos varianzas no sea debida al azar y podamos, así, rechazar la hipótesis nula. ANÁLISIS DE MEDIAS POST HOC Tras realizar el ANOVA, rechazar la hipótesis nula impli- cará que hay diferencia estadísticamente significativa entre, al menos, dos de las medias comparadas, pero no sabremos entre cuáles, por lo que tendremos que comparar las medias dos a dos para saber qué pareja o parejas difieren de forma significativa. La comparación de medias es sencilla, el problema surge al tener que realizar comparaciones múltiples. Aunque la probabilidad de cometer un error de tipo I al comparar dos medias es de 0,05, si realizamos com- paraciones múltiples esta probabilidad de encontrar un falso positivo aumenta. Para hacernos una idea, si ha- cemos 5 comparaciones, la probabilidad de encontrar un falso positivo solo por azar será de 0,22, pero si son 20 comparaciones, esta sube hasta 0,64. Por este motivo, es necesario aplicar una corrección para comparaciones múltiples que mantenga la proba- bilidad global de error de tipo I por debajo del límite establecido, habitualmente de 0,05. Si el ANOVA es estadísticamente significativo, será necesario hacer un análisis post hoc comparando las medias dos a dos para identificar qué parejas de medias difieren entre sí La más sencilla es la corrección de Bonferroni, que cal- cula un valor de p “penalizado” que se establece como nuevo umbral de significación estadística, en lugar del habitual p <0,05. De forma sencilla, podemos decir que el nuevo valor de p se obtendrá dividiendo 0,05 entre el número de contrastes. Por ejemplo, si hacemos 6 con- trastes (comparamos 6 parejas de medias), el valor de p para considerar la diferencia como estadísticamente significativa será de 0,05 / 6 = 0,008 (y no 0,05). Hay muchos más métodos para realizar una corrección para comparaciones múltiples. Habitualmente, el pro- grama estadístico nos especificará cuál ha utilizado. Al- gunos de los más usados son los de Tukey, de Scheffé, de Dunnett o de Sidak. Tabla 1. Tabla resumen del ANOVA Variabilidad SC GL Varianzas F Entre grupos SC E k - 1 Intragrupos (residual) SC I n - k Total SC T n - 1 GL: grados de libertad; k: número de grupos; n: tamaño de la muestra; SC: suma de cuadrados; SC E : suma de cuadrados entre grupos; SC I : suma de cuadrados intragrupos; SC T : suma de cuadrados total; S E : varianza entre grupos; S I : varianza intragrupos.
RkJQdWJsaXNoZXIy MTAwMjkz