3.3 Comprobación de los supuestos
Ya hemos mencionado que para que pueda aplicarse el modelo estadístico de A1FMR es necesario que se cumplan las condiciones de independencia, normalidad y homogeneidad de varianzas 5. Ahora bien, en este tipo de diseño la independencia hace referencia a que las medidas de un mismo sujeto no estén relacionadas. Asimismo, el efecto de la VI debe ser independiente de la interacción del sujeto con el tratamiento. Cuando se cumplen estos supuestos, el estadístico F se distribuye como un estadístico \(\mathcal{F}_{gl_1,gl_2}\) donde \(gl_1 = j - 1\) y \(gl_2 = (j - 1)(n - 1)\).
Estos supuestos están relacionados con las características de la matriz de varianzas-covarianzas del diseño que contiene la varianza de cada medida en la diagonal y las covarianzas entre cada par de medidas. Esta característica de la matriz se denomina simetría compuesta y decimos que la matriz es esférica cuando las varianzas y covarianzas son iguales. Sin embargo, es muy poco probable que los datos de las investigaciones psicológicas que utilizan este tipo de diseños lo cumplan, ya que es razonable considerar que los errores de un sujeto (y sus medidas) estén correlacionados entre sí en algún grado. Por tanto, para poder aplicar el modelo estadístico necesitamos relajar estos supuestos. Para ello, se considera suficiente que las covarianzas entre las medidas sean iguales. Más concretamente, es suficiente que las varianzas de las diferencias entre cada par de medidas sean iguales 6. Si se cumple esto, el estadístico F sigue la distribución teórica con \(\mathcal{F}_{gl_1,gl_2}\) donde \(gl_1 = j - 1\) y \(gl_2 = (j - 1)(n - 1)\).
En el caso de que el estadístico F no siga la distribución anteriormente mencionada se vuelve liberal (aumenta la probabilidad de cometer errores tipo I), y puede demostrarse que sigue una distribución \(\mathcal{F}_{gl_1,gl_2}\) donde \(gl_1 = \epsilon(j - 1)\) y \(gl_2 = \epsilon(j - 1)(n - 1)\) (Maxwell & Delaney, 2004). El valor de \(\epsilon\), es desconocido y necesitamos estimarlo a partir de nuestros datos. Se han propuesto varias alternativas para estimarlo. Una de ellas, postulada por Greenhouse-Geisser, proponen una estimación de \(\hat{\epsilon}\) que es más conservadora que la propuesta por Huyndt-Feldt (\(\tilde{\epsilon}\)). No obstante, el estadístico F es el más conservador de los tres por lo que si éste estadístico es significativo los otros dos también lo serán. En el ejemplo anterior los valores de \(\epsilon\) son los siguientes:
## $sphericity.tests
## Test statistic p-value
## emocion 0.66667 0.66667
## $pval.adjustments
## GG eps Pr(>F[GG]) HF eps Pr(>F[HF])
## emocion 0.75 0.006540799 1.333333 0.0021483
## attr(,"na.action")
## (Intercept)
## 1
## attr(,"class")
## [1] "omit"
Observamos que el valor obtenido por Geiser-Greenhouse (0.75) es menor que el de Huyndt-Feldt (1.33 \(\simeq\) 1). En ambos casos, los estadísticos nos llevan a rechazar la hipótesis nula de igualdad de medias. El resultado denominado sphericity.test con valor de 0.66 es el test de Mauchly, indicándonos que se acepta la hipótesis de esfericidad.
Hay ocasiones en las que existen más medidas repetidas que sujetos. En estos casos, Pardo & San Martin (2010) recomiendan utilizar el estadístico F modificando los grados de libertad con el menor valor de \(\epsilon\). Si no se rechaza la hipótesis con esta opción, utilizar las estimaciones de \(\epsilon\) propuestas anteriormente (la de Geisser-Greenhouse o Huyndt-Feldt, cualquiera de ellas vale).
Pardo & San Martin (2010) y Ato & Vallejo (2015) señalan con acierto que los modelos ANOVA son muy robustos en situaciones donde las variables no siguen una distribución normal salvo en aquellas en las que los diseños no están balanceados o las distribuciones son muy asimétricas. Sin embargo, mantendremos aquí el cumplimiento de las dos condiciones con objeto de facilitar el aprendizaje.↩︎
Si en el diseño sólo hay dos medidas por sujeto siempre se cumple el supuesto de esfericidad.↩︎