UNIVERSIDAD NACIONAL DE INGENIERÍA
DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERÍA ECONÓMICA Y CC.SS.
PROF: LIC. NEL QUEZADA LUCIO
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
TEMAS 1.- INTRODUCCIÓN 2. Experimentos de Comparación Simples
DESCRIPCIÓN GRÁFICA DE LA VARIABILIDAD
DISTRIBUCIÓN DE PROBABILIDAD (FUNCIÓN DE PROBABILIDAD)
MUESTREO Y DISTRIBUCIONES MUÉSTRALES
PRUEBA DE HIPÓTESIS
3. Experimentos con un solo Factor:
ANÁLISIS DE VARIANCIA
ANÁLISIS DEL MODELO DE EFECTOS FIJOS
COMPARACIÓN DE MEDIAS DE TRATAMIENTOS INDIVIDUALES
MODELO DE EFECTOS ALEATORIOS
4. Bloques Aleatorizados, Cuadrados Latinos y Diseños Relacionados
DISEÑO ALEATORIZADO POR BLOQUES COMPLETOS
DISEÑO DE CUADRADO LATINO
DISEÑO DE CUADRADOS GRECO-LATINOS
5. Diseño Factorial 2K
EL DISEÑO 22
EL DISEÑO 23
EL DISEÑO GENERAL 2k
UNA SOLA RÉPLICA EN EL DISEÑO 2K
ADICIÓN DE PUNTOS CENTRALES AL DISEÑO 2K
ALGORITMO DE YATES PARA EL DISEÑO 2K
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
7.- Diseños Jerárquicos (o Anidados)
DISEÑO JERÁRQUICO EN DOS ETAPAS
SI LOS NIVELES DE LOS FACTORES A Y B SON FIJOS
SI A FACTOR FIJO Y B ALEATORIO:
SI A Y B FACTORES ALEATORIO
DISEÑOS JERÁRQUICOS TRES ETAPAS
DISEÑOS JERÁRQUICOS Y FACTORES CRUZADOS.
8.- análisis de covariancia
SUPUESTOS BÁSICOS DE ANÁLISIS DE COVARIANCIA
MODELO GENERAL DE ANÁLISIS
ANÁLISIS DE DATOS
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
2. Experimentos de Comparación Simples
DESCRIPCIÓN GRÁFICA DE LA VARIABILIDAD
DISTRIBUCIÓN DE PROBABILIDAD (FUNCIÓN DE PROBABILIDAD)
MUESTREO Y DISTRIBUCIONES MUÉSTRALES
PRUEBA DE HIPÓTESIS
Análisis de dos muestras
Supongamos el siguiente ejemplo.
La resistencia a la rotura de un componente eléctrico constituye una característica
importante de un cierto proceso. Un fabricante utiliza un material nuevo de fabricación
frente al material clásico.
Se recoge una muestra de 10 elementos usando el primer componente y otra de 10
elementos usando el segundo componente.
Se pueden considerar a los dos procesos como dos tratamientos o dos niveles diferentes
de un factor dado.
Componente Nuevo Componente Antiguo16.85 17.5016.40 17.6313.21 18.2516.35 18.0016.52 17.8617.04 17.7516.96 18.2217.15 17.9016.59 17.9616.57 18.15
Se tiene que la media muestral del componente nuevo es y1 = 16,76 y la del componente
antiguo es y2 = 17,92.
Se pretende averiguar si existen diferencias significativas entre ambos tratamientos a
nivel de resistencia.
En este caso, se considera que los datos proceden de una m.a.s de una distribución
normal, y que el diseño es completamente aleatorizado.
1
El contraste de hipótesis que se tiene que realizar es bilateral:
H0 ≡ µ1 = µ2
H1 ≡ µ1 6= µ2
Fijamos α = P {error tipo I} = P {Rechazar H0|H0 siendo cierta}Suponiendo normalidad y suponiendo que σ21 = σ22, se utiliza el estadístico siguiente:
t0 =y1 − y2
spq
1n1+ 1
n2
donde y1 e y2 son las medias muestrales, n1 y n2 son el tamaño de cada muestra y
sp =(n1 − 1) s21 + (n2 − 1) s22
n1 + n2 − 2
Se compara el valor de este estadístico con el valor de una distribución t de Student
tα2;n1+n2−2.
Si |t0| > tα2;n1+n2−2 entonces se rechaza H0.
Así, si H0 es verdadera, t0 se distribuye como una t de Student y es de esperar que
un 100(1 − α)% de los valores de t0 estén entre¡−tα
2;n1+n2−2; tα2 ;n1+n2−2
¢. Una muestra
concreta que produzca un valor fuera de este intervalo es rara si H0 fuese cierta, lo que
lleva a rechazar la hipótesis H0.
En el ejemplo:
Componente nuevo Componente antiguoy1 = 16,76 y2 = 17,92s21 = 0,10 s22 = 0,061s1 = 0,316 s2 = 0,247n1 = 10 n2 = 10
s2p =(n1 − 1) s21 + (n2 − 1) s22
n1 + n2 − 2 =
=9 · 0,10 + 9 · 0,06110 + 10− 2 = 0,081
y sp = 0,204.
2
Así,
t0 =y1 − y2
spq
1n1+ 1
n2
=
=16,76− 17,920,284
q110+ 1
10
= −9,13
Por otro lado, tα2;n1+n2−2 = t0,025;18 = 2,10, y como |t0| = 9,13 > t0,025;18 = 2,10,
entonces no se acepta H0, esto es, existen diferencias significativas entre las dos medias al
nivel de confianza del 95%.
También se podría haber considerado un intervalo de confianza, dado que el contraste
es bilateral:
∙(y1 − y2)± tα
2;n1+n2−2sp
r1
n1+1
n2
¸y ver si el valor 0 se encuentra en su interior.
En el caso en que las varianzas de las poblaciones de las que proceden las dos muestras
son diferentes (σ21 6= σ22) se introduce una modificación en los grados de libertad de la
distribución t de Student (corrección de Welch). Así, se considera el estadístico
t0 =y1 − y2qs21n1+
s22n2
que se compara con una distribución t de Student, tα2,v donde v son los grados de libertad
aproximados:
v =
³s21n1+
s22n2
´2(s21/n1)
2
n1−1 +(s22/n2)
2
n2−1
Diseño de comparación por pares (apareado)
En el apartado anterior, se consideraba que los valores de ambas muestras no estaban
correlacionados. Sin embargo, existen situaciones en las que un mismo objeto recibe dos
3
tratamientos distintos (e.g. pruebas con dos tipos de medicamentos), de manera que no
se pueden considerar observaciones independientes.
En otros casos se puede mejorar el diseño experimental eliminando fuentes de error.
Ejemplo.
Supongamos un instrumento de medida de la dureza de un cierto material (se mide
la profundidad de la huella producida por la presión de una punta sobre una probeta).
Supongamos que se dispone de dos tipos de puntas distintas y se quiere comprobar si
existen o no diferencias entre ellas.
Un posible diseño experimental, sería tomar 20 probetas al azar y probar la mitad de
ellas con una punta y la otra mitad con la otra. Se tendría, así, un diseño completamente
aleatorizado y se utilizaría una prueba t de Student como en el apartado anterior.
Supongamos que existen diferencias entre las probetas, debidas a la distinta homo-
geneidad del material o a las diferentes condiciones de fabricación. Esto aumentaría el
error de medida, que no sería controlable, y la diferencia entre las puntas podría resultar
enmascarada.
Una posible forma de evitarlo sería el siguiente diseño.
Se divide en dos partes a la probeta y se asigna aleatoriamente una punta u otra a
cada parte. El modelo estadístico que se considera es el siguiente:
yij = µi + βj + εij
para i = 1, 2 y j = 1, 2, . . . , 10. Donde
yij ≡ Resultado de la punta i sobre la probeta jµi ≡ Dureza media (poblacional) de la punta i.βj ≡ Efecto sobre la dureza medida de la probeta j.εij ≡ Error experimental (con media 0 y varianza σ2i ).
Si se quiere eliminar el efecto no controlable de las diferentes probetas, se pueden
considerar las diferencias entre las medidas:
4
dj = y1j − y2j para j = 1, 2, . . . , 10.
El valor esperado de la diferencia
E (dj) = E (y1j)−E (y2j) =¡µ1 + βj
¢− ¡µ2 + βj¢= µ1 − µ2
luego, si se denomina µd = µ1 − µ2, entonces la hipótesis H0 ≡ µ1 = µ2 equivale a
H0 ≡ µd = 0.
El contraste que se realiza es
H0 ≡ µd = 0
H1 ≡ µd 6= 0
y se emplea
t0 =d
sd/√n
donde
d =1
n
nXj=1
dj
s2d =1
n− 1nX
j=1
¡dj − d
¢2La hipótesis µd = 0 se rechaza cuando
|t0| > tα2,(n−1)
En el ejemplo:
Punta 1 Punta 2 dj7 6 13 3 03 5 −24 3 18 8 03 2 12 4 −29 9 05 4 14 5 −1
5
d = −0,10
sd = 1,20
t0 =d
sd/√n= −0,26
tα2,(n−1) = t0,025,9 = 2,262
Con lo cual se acepta H0 ya que |t0| < 2,262.
Observaciones.
Si se utiliza un diseño apareado, en realidad se está utilizando un diseño de tipo
aleatorizado por bloques.
Un bloque es una unidad experimental relativamente homogénea (en el ejemplo an-
terior eran las probetas). La variabilidad dentro de los bloques es menor que entre los
bloques.
Si se consideran bloques se elimina error experimental, pero se reduce el número de
grados de libertad (la sensibilidad de una prueba aumenta cuando aumenta el número
de grados de libertad), con lo cual, si la variabilidad dentro de los bloques es igual a la
variabilidad entre los mismos no se debería considerar el diseño apareado (bloques).
Comparaciones entre varios grupos.
Supongamos que se tienen más de dos posibles grupos a comparar. La primera idea
sería realizar contrastes de la t de Student por pares de grupos. Por ejemplo, si se tienen
5 grupos: 4 tratamientos y un control, podrían plantearse un total deµ5
2
¶= 10 posibles
pares de comparaciones. Haciendo esto produce el siguiente problema:
Si la probabilidad de aceptar H0 correctamente es (1 − α), e.g. 0.95, entonces la
probabilidad de aceptar correctamente H0 en las 10 pruebas es 0,9510 = 0,60 si éstas
son independientes. Es decir, aumenta mucho el error de tipo I. Entonces hay que utilizar
una metodología diferente: ANOVA.
6
Aplicación con R Se puede usar la librería Rcmdr de R: > library(Rcmdr) > Commander() Desde allí se pueden importar los datos que han de estar colocados en dos columnas: la primera con los valores y la segunda con un factor (definido como objeto factor) que tome valores 1 y 2 correspondientes a cada grupo. Después, se va a los menús siguientes: Statistics -> Means -> Single-Sample t-test Alternativamente, se puede hacer lo mismo con R pero mediante sentencias: > CNuevo <- c(16.85, 16.40, 13.21, 16.35, 16.52, 17.04, 16.96, 17.15, 16.59, 16.57) > CAntiguo <- c(17.50, 17.63, 18.25, 18.00, 17.86, 17.75, 18.22, 17.90, 17.96, 18.15) Se comprueba la igualdad entre las varianzas de ambas muestras: > var.test(CNuevo, CAntiguo) F test to compare two variances data: CNuevo and CAntiguo F = 21.2113, num df = 9, denom df = 9, p-value = 0.0001013 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 5.268586 85.396550 sample estimates: ratio of variances 21.21130 Al ser distintas para cada grupo se toma la opción correspondiente del comando siguiente: > t.test(CNuevo, CAntiguo, paired=F, var.equal=F) Welch Two Sample t-test data: CNuevo and CAntiguo t = -4.2167, df = 9.847, p-value = 0.001843 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -2.3829934 -0.7330066 sample estimates: mean of x mean of y 16.364 17.922
7
Se puede hacer un procedimiento Bootstrap para las estimas. > # Fijas el numero de iteraciones > iter <- 2000 > n1 <- length(CNuevo) > n2 <- length(CAntiguo) > d <- NULL > for(i in 1:iter) { + xtemp <- sample(CNuevo,n1,replace=T) + ytemp <- sample(CAntiguo,n2,replace=T) + d[i] <- mean(xtemp) - mean(ytemp) + } > dbar <- mean(d) > se <- sqrt(var(d)) > # Construyes el estadistico > z <- dbar/se > pvalor <- 2*(1-pnorm(abs(z))) > cbind(dbar,se,z,pvalor) dbar se z pvalor [1,] -1.567326 0.3546939 -4.418815 9.92437e-06 > quantile(d,c(0.025, 0.975)) 2.5% 97.5% -2.3552 -1.0480 Observaciones apareadas > Punta1 <- c(7,3,3,4,8,3,2,9,5,4) > Punta2 <- c(6,3,5,3,8,2,4,9,4,5) > t.test(Punta1, Punta2, paired=T) Paired t-test data: Punta1 and Punta2 t = -0.2641, df = 9, p-value = 0.7976 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -0.9564389 0.7564389 sample estimates: mean of the differences -0.1
8
Aplicación con SAS options ls=75 nodate nonumber; title 'Comparación entre dos grupos independientes'; data dgrup; input medida grupo $; /* En el caso de que los datos estén en un fichero externo (e.g. datos.txt) se usa la orden infile: infile 'c:\...\datos.txt'; */ cards; 16.85 1 16.40 1 13.21 1 16.35 1 16.52 1 17.04 1 16.96 1 17.15 1 16.59 1 16.57 1 17.50 2 17.63 2 18.25 2 18.00 2 17.86 2 17.75 2 18.22 2 17.90 2 17.96 2 18.15 2 proc ttest; class grupo; var medida; run; Comparación de dos grupos independientes The TTEST Procedure Statistics Lower CL Upper CL Lower CL Variable grupo N Mean Mean Mean Std Dev Std Dev medida 1 10 15.547 16.364 17.181 0.7854 1.1418 medida 2 10 17.745 17.922 18.099 0.1705 0.2479 medida Diff (1-2) -2.334 -1.558 -0.782 0.6243 0.8262
9
Statistics Upper CL Variable grupo Std Dev Std Err Minimum Maximum medida 1 2.0845 0.3611 13.21 17.15 medida 2 0.4526 0.0784 17.5 18.25 medida Diff (1-2) 1.2218 0.3695 T-Tests Variable Method Variances DF t Value Pr > |t| medida Pooled Equal 18 -4.22 0.0005 medida Satterthwaite Unequal 9.85 -4.22 0.0018 Equality of Variances Variable Method Num DF Den DF F Value Pr > F medida Folded F 9 9 21.21 <.0001
10
options ls=75 nodate nonumber; title 'Comparación de diferencias entre dos grupos '; data df2g; input Punta1 Punta2; dife = Punta1-Punta2; cards; 7 6 3 3 3 5 4 3 8 8 3 2 2 4 9 9 5 4 4 5 proc means n mean stderr t prt; var dife; run; Comparación de diferencias entre dos grupos The MEANS Procedure Analysis Variable : dife N Mean Std Error t Value Pr > |t| ƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ 10 -0.1000000 0.3785939 -0.26 0.7976 ƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒƒ
11
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
3. Experimentos con un solo Factor:
ANÁLISIS DE VARIANCIA
ANÁLISIS DEL MODELO DE EFECTOS FIJOS
COMPARACIÓN DE MEDIAS DE TRATAMIENTOS INDIVIDUALES
MODELO DE EFECTOS ALEATORIOS
Modelo de diseño unifactorialcompletamente aleatorizado
Introducción y ejemplos
Este modelo es el más sencillo del diseño de experimentos, en el cual la variable re-
spuesta puede depender de la influencia de un único factor, de forma que el resto de las
causas de variación se engloban en el error experimental.
Se supone que el experimento ha sido aleatorizado por completo, es decir, todas las
unidades experimentales han sido asignadas al azar a los tratamientos.
Vamos a considerar dos tipos de modelos: el de efectos fijos y el de efectos aleatorios.
Se presentan ambos tipos mediante dos ejemplos:
Ejemplo 1. Una firma comercial desea conocer la influencia que tiene el nivel cultural
de las familias en el éxito de una campaña publicitaria sobre cierto producto. Para ello,
aprovecha los resultados de una encuesta anterior clasificando las respuestas en tantos
grupos como niveles culturales ha establecido.
Estamos ante un modelo de un solo factor, ya que la firma sólo está interesada en
averiguar si los distintos niveles culturales influyen o no de la misma manera sobre las
ventas, no importándole la influencia del resto de los factores que pueden inducir a una
mayor o menor tendencia a la compra. El modelo es de diseño fijo porque la firma aplicará
los resultados de la investigación exclusivamente a los niveles culturales establecidos por
ella, que pueden abarcar o no la gama completa de formación cultural.
Ejemplo 2. En una fábrica se han observado anomalías en la calidad de las piezas pro-
1
ducidas por un tipo de máquinas: por haber sido revisadas recientemente se piensa que
los defectos puedan deberse a los trabajadores. Para contrastar esta hipótesis se toma una
muestra aleatoria de trabajadores y se controla la calidad de las distintas piezas que cada
uno obtiene.
Al igual que en el ejemplo anterior el modelo de comportamiento es de un solo factor,
la calidad del trabajo de los trabajadores, pero al extender el resultado del análisis a toda
la población de la que procede la muestra de obreros, el modelo es aleatorio, ya que de él
deduciremos si los obreros que integran la población estudiada realizan un trabajo de la
misma calidad o no.
En el Ejemplo 1, la firma tenía una gama de formaciones culturales muy amplia, pero
sólo le interesaban unas determinadas. Para ella, la población de niveles estaba compuesta
por los elegidos en el estudio, por lo cual los resultados sólo se pueden aplicar a ellos. En
este caso, los niveles del factor se han elegido de forma determinista, basándose en datos
históricos.
Por el contrario, en el Ejemplo 2, no interesa la calidad del trabajo de los trabajadores,
sino poder atribuir la aparición de piezas defectuosas a todos los trabajadores o a las
máquinas. Si del análisis se deduce que la muestra de trabajadores no presenta diferencias
de calidades, se inferirá que en la población tampoco, por lo cual se pueden atribuir los
fallos a las máquinas. En este caso, los niveles del factor se han elegido de forma aleatoria,
pudiéndose inferir los resultados a toda la población de trabajadores.
Así, se pueden considerar dos posibles variantes de diseño unifactorial:
(i) Los niveles del factor se seleccionan de modo específico por el experimentador. Esto
constituye el llamado modelo de efectos fijos.
(ii) Los niveles de un factor son una muestra aleatoria de una población mayor de
tratamientos. Esto es el modelo de efectos aleatorios.
2
Modelo de efectos fijos
Sea Y la variable respuesta que deseamos analizar. Podemos resolver dos tipos de
problemas:
1. Consideramos a poblaciones diferentes y comparamos la respuesta a un tratamiento,
o único nivel de un factor. En la población i-ésima (i = 1, . . . , a) se toman ni
observaciones. La respuesta se cuantifica mediante yij, donde i = 1, . . . , a se refiere
a la población en estudio y j = 1, . . . , ni se refiere a la observación j -ésima.
2. Consideramos ahora un factor con a niveles, es decir, en total a tratamientos, y una
única población. Se observa la respuesta yij del tratamiento i-ésimo a ni observa-
ciones de la población.
En cualquiera de los dos casos el modelo se puede expresar como:
yij = µi + εij
donde i = 1, . . . , a; j = 1, . . . , ni yaXi=1
ni = N, siendo µi el valor medio de Y, la variable
respuesta, en la población o nivel i-ésimo, y εij es el error aleatorio que incluye a todos
los factores que influyen en la respuesta y no están incluidos en el modelo.
Alternativamente, se puede expresar de esta manera:
yij = µ+ τ i + εij
donde i = 1, . . . , a; j = 1, . . . , n, suponiendo grupos de igual tamaño.
De este modo,
(i) yij es la observación (i, j ) - ésima.
(ii) µ es la media global.
(iii) τ i es el efecto del i-ésimo tratamiento.
3
(iv) εij es el error aleatorio, tal que εij ∼ N (0, σ2) independientes entre sí, E [εij ] = 0 y
V ar [εij] = σ2.
Se supone, además, que las unidades experimentales están en un ambiente uniforme,
lo cual lleva a un diseño completamente aleatorizado.
En el modelo de efectos fijos, los efectos de los tratamientos τ i se definen como desvia-
ciones respecto a la media general, por lo que
nXj=1
aXi=1
τ i = 0
aXi=1
nτ i = 0 =⇒aXi=1
τ i = 0
La esperanza del tratamiento i es
E [yij] = µ+ τ i
donde i = 1, . . . , a. De este modo es igual al término de la media general más el efecto del
tratamiento i.
El problema que se trata de analizar es
H0 ≡ µ1 = µ2 = · · · = µa
H1 ≡ µi 6= µj (para al menos un par)
y esto es equivalente a
H0 ≡ τ 1 = τ 2 = · · · = τa
H1 ≡ τ i 6= 0, ∃i
El problema se puede resumir en la siguiente tabla:
4
Nivel Observaciones Totales Promedios1 y11 y12 · · · y1n y1· y1·2 y21 y22 · · · y2n y2· y2·... · · · · · · · · · · · · · · ·a ya1 ya2 · · · yan ya· ya·
y·· y··
La idea es descubrir cómo se reparte la variabilidad total de la muestra. Una posible
medida de variabilidad total es la suma de cuadrados, denominada total, o suma total de
cuadrados corregida:
SCT =aXi=1
nXj=1
(yij − y··)2
donde
y·· =1
n · aaXi=1
nXj=1
yij
Se puede desomponer en dos partes esta suma total de cuadrados:
SCT =aXi=1
nXj=1
(yij − y··)2 =
aXi=1
nXj=1
((yi· − y··) + (yij − yi·))2 =
= naXi=1
(yi· − y··)2 +
aXi=1
nXj=1
(yij − yi·)2 =
= SCTra+ SCE.
ya que
2aXi=1
nXj=1
(yi· − y··) (yij − yi·) =
= 2aXi=1
(yi· − y··)nX
j=1
(yij − yi·)
peronX
j=1
(yij − yi·) = nyi· − nyi· = 0
y así los dobles productos se hacen 0.
Las diferencias entre los promedios observados de los tratamientos y el promedio ge-
neral, da una medida de las diferencias entre los tratamientos.
5
Las diferencias de las observaciones dentro de los tratamientos con respecto al promedio
del tratamiento, se considera error aleatorio.
Grados de libertad.
Se tiene un total de a · n observaciones y de a tratamientos.SCT tiene (an− 1) grados de libertad.SCTra tiene (a− 1) grados de libertad.SCE tiene a(n−1) grados de libertad, porque hay n réplicas dentro de cada tratamien-
to, es decir, se tienen (n − 1) grados de libertad para estimar el error experimental. Altener a tratamientos, se tiene un total de a(n− 1) grados de libertad.
Observaciones.
Se tiene que
SCE =aXi=1
nXj=1
(yij − yi·)2 =
aXi=1
"nX
j=1
(yij − yi·)2
#.
Si el término entre paréntesis se divide entre n − 1, se obtiene la cuasivarianza deltratamiento i :
s2i =1
n− 1nX
j=1
(yij − yi·)2 .
Se puede estimar la varianza poblacional combinando dichas varianzas por grupos:
(n− 1)s21 + (n− 1)s22 + · · ·+ (n− 1)s2a(n− 1) + (n− 1) + · · ·+ (n− 1) =
aXi=1
"nX
j=1
(yij − yi·)2
#aXi=1
(n− 1)=
=SCE
N − a
donde N = a · n.Si no hay diferencias entre los a tratamientos, se puede estimar la varianza poblacional
σ2 como
SCTra
a− 1 =
naXi=1
(yi· − y··)2
a− 16
cuando las medias de los tratamientos son iguales, ya que el término
aXi=1
(yi· − y··)2
a− 1
sería un estimador de la varianza de la media muestral: σ2/n.
Se dispone, así de dos posibles estimadores de σ2 :
MCTra =SCTra
a− 1MCE =
SCE
N − a
Cuando no existen diferencias entre las medias de los tratamientos, las estimaciones
deben ser similares.
Si consideramos las medias de cuadrados anteriores, entonces, se puede demostrar,
sustituyendo, que
E(MCE) = σ2
E(MCTra) = σ2 +nPa
i=1 τ2i
a− 1 .
De este modo, si para algún τ i 6= 0, entonces E(MCTra) > σ2.
La idea básica es diseñar un contraste que tenga en cuenta estas diferencias entre los
dos estimadores de σ2.
Como los errores εij se distribuyen independientemente entre sí, según una N(0, σ),
entonces, por el lema de Fisher
SCE
σ2∼ χ2N−a
SCTra
σ2∼ χ2a−1
siempre que τ i = 0, ∀i.
NOTA: Teorema de Cochran:
7
Sea zi ∼ N(0, 1) independientes entre sí, para i = 1, 2, . . . v y sea
vXi=1
z2i = Q1 +Q2 + · · ·+Qs
donde s ≤ v y cada Qi tiene vi grados de libertad (i = 1, 2, . . . s), entonces
Q1, Q2, . . . , Qs son v.a. independientes distribuidas como una chi cuadrado con
v1, v2, . . . , vs grados de libertad respectivamente, si y sólo si
v = v1 + v2 + . . .+ vs
Si se aplica el teorema de Cochran, se tiene que SSEσ2
y SSTraσ2
son independientes, por
lo que si τ i = 0, ∀i, entonces
F0 =SCTraa−1SCEN−a
=MCTra
MCE
se distribuye como una F de Snedecor, Fa−1,N−a.
Si algún τ i 6= 0, entonces E(MSTra) > σ2 entonces el valor del estadístico F0 es
mayor, obteniéndose una región crítica superior, de modo que se rechaza, a nivel α, la
hipótesis nula de igualdad de tratamientos, si
F0 > Fα,a−1,N−a
Resumen: Tabla ANOVA.
H0 ≡ τ 1 = τ 2 = · · · τaH1 ≡ τ i 6= 0, ∃i
F. Variación S. Cuadrados gl M. Cuadrados F0
Factor SCTra = naPi=1
(yi· − y··)2 a− 1 MCTra = SCTraa−1 Fo =
MCTraMCE
Error SCE =aPi=1
nPj=1
(yij − yi·)2 N − a MCE = SCEn−a
Total SCT =aPi=1
nPj=1
(yij − y··)2 N − 1
Se rechaza H0 a nivel α cuando F0 > Fα,a−1,N−a.
8
Estimación de los parámetros.
Dado el modelo
yij = µ+ τ i + εij
donde i = 1, . . . , a; j = 1, . . . , n, se pueden estimar los parámetros µ y τ i por el método
de los mínimos cuadrados, de modo que no se necesita suponer normalidad de los errores
εij.
la suma de los cuadrados de los errores es
L =aXi=1
nXj=1
ε2ij =aXi=1
nXj=1
(yij − µ− τ i)2 ,
de modo que los estimadores de µ y τ i son los valores µ y τ i que minimizan el funcional
L.
Derivando respecto cada uno de los parámetros, se obtiene un total de (a + 1) ecua-
ciones:
∂L
∂µ= 0 =⇒−2
aXi=1
nXj=1
(yij − µ− τ i) = 0
∂L
∂τ i= 0 =⇒−2
nXj=1
(yij − µ− τ i) = 0, i = 1, 2, . . . , a
se obtiene
Nµ+ nτ 1 + nτ 2 + · · ·+ nτa = y··⎧⎪⎪⎪⎨⎪⎪⎪⎩nµ +nτ 1 = y1·nµ +nτ 2 = y2·... · · · · · · · · · · · · ...nµ +nτa = ya·
Estas se denominan ecuaciones normales de mínimos cuadrados. Si se suman las últi-
mas a ecuaciones, se obtiene la primera ecuación, de modo que no forman un sistema
independiente de ecuaciones y no existe solución única. Para evitar esto, se considera la
restricciónaXi=1
τ i = 0,
9
obteniéndose, entonces, los estimadores
µ = y··
τ i = yi· − y··
para i = 1, 2, . . . , a.
Si se asume que los errores están distribuidos según una normal, entonces cada yi· ∼N (µi, σ
2/n) . De este modo, cuando σ2 es desconocida un intervalo de confianza al 100(1−α)% es "
yi· ± tα2,N−a
rMCE
n
#.
De la misma manera, "(yi· − y··)± tα
2,N−a
r2MCE
n
#.
Diseño desequilibrado.
Si el número de observaciones es diferente según cada tratamiento i: ni donde i =
1, 2, . . . , a, las expresiones previas son iguales salvo que se sustituye n por ni :
SCT =aXi=1
niXj=1
(yij − y··)2 =aXi=1
niXj=1
y2ij −y2··N
SCTra =aXi=1
niXj=1
(yi· − y··)2 =aXi=1
y2i·ni− y2··
N
SCE = SCT − SCTra
Para resolver las ecuaciones normales se considera la restricción
aXi=1
niτ i = 0
y se resuleve del mismo modo.
Si el diseño es no balanceado o desequilibrado, aumenta la sensibilidad del análisis
unifactorial a la falta de igualdad entre las varianzas de cada grupo (heterocedasticidad).
10
Ejemplo 1 Un ingeniero de desarrollo de productos está interesado en maximizar la
resistencia a la tensión de una nueva fibra sintética que se empleará en la manufactura
de tela para camisas de hombre. El ingeniero sabe por experiencia que la resistencia
está influida por el porcentaje de algodón presente en la fibra. Además, sospecha que el
contenido de algodón debe estar aproximadamente entre un 10 y 40% para que la tela
resultante tenga otras características de calidad que se desean (como la capacidad de
recibir un tratamiento de planchado permanente). El ingeniero decide probar muestras a
cinco niveles de porcentaje de algodón: 15, 20, 25, 30 y 35%. Asimismo, decide ensayar
cinco muestras a cada nivel de contenido de algodón. Las 25 observaciones deben asignarse
al azar. Para ilustrar la forma en que puede aleatorizarse el orden de ejecución, supóngase
que las observaciones se numeran como sigue:
% algodón15 1 2 3 4 520 6 7 8 9 1025 11 12 13 14 1530 16 17 18 19 2035 21 22 23 24 25
Ahora se elige al azar un número entre 1 y 25. Supongamos que es el 8, entonces la
observación 8a se ejecuta primero (es decir, a un 20% de algodón). A continuación se
elige un número al azar entre 1 y 25, quitando el 8. Supongamos que es el 4, entonces la
observación 4a se ejecuta en segundo lugar (a un 15% de algodón). Se repite el proceso
hasta completar las 25 observaciones.
Esta secuencia de prueba aleatorizada es necesaria para evitar que los resultados se
contaminen por los efectos de variables desconocidas que pueden salir de control durante
el experimento. Para ilustrar esto, supóngase que se ejecutan las 25 muestras de prueba
en el orden no aleatorizado original (esto es, las 5 muestras con un 15% de algodón se
prueban primero, luego las 5 muestras con un 20% de algodón, y así sucesivamente). Si la
máquina que prueba la resistencia a la tensión presenta un efecto de calentamiento tal que
11
a mayor tiempo de funcionamiento menores lecturas de resistencia a la tensión, entonces
dicho efecto contaminará los datos de resistencia e invalidará el experimento.
Supóngase ahora que el ingeniero ejecuta la prueba en el orden aleatorio que hemos
determinado. Las observaciones obtenidas acerca de la resistencia a la tensión son:
% de algodón Observaciones Suma Media15 7 7 15 11 9 49 9.820 12 17 12 18 18 77 15.425 14 18 18 19 19 88 17.630 19 25 22 19 23 108 21.635 7 10 11 15 11 54 10.8
376 15.04
Representamos el diagrama de dispersión para la resistencia frente al porcentaje de
algodón, y.el diagrama de cajas para la resistencia a la tensión a cada nivel de porcentaje
de algodón.
diagrama de dispersión
porcentaje de algodón
observacionesmedias
15 20 25 30 357
10
13
16
19
22
25
7
10
13
16
19
22
25
12
Diagrama de cajas
porcentaje de algodón
obse
rvac
ione
s
15 20 25 30 357
10
13
16
19
22
25
Ambas gráficas indican que la resistencia a la tensión aumenta con el contenido de
algodón hasta el 30%. Mas allá del 30% ocurre un notable decrecimiento en la resistencia.
No hay una fuerte evidencia que sugiera que la variabilidad en la resistencia alrededor
de la media dependa del porcentaje de algodón. Se sospecha, no obstante, que el porcentaje
de algodón influye en la resistencia a la tensión.
Se disponen los datos en una tabla como esta:
Observaciones Sumas Mediasy11, · · · , y1n1 y1· y1·...
......
yI1, · · · , yInI yI· yI·y·· y··
A) Hipótesis del modelo
Las principales hipótesis del modelo son:
— Normalidad: εij sigue una distribución normal.
— Linealidad: E(εij) = 0
— Homocedasticidad: V ar(εij) = σ2
13
— Independencia: εij son independientes entre sí.
Estas hipótesis son equivalentes a las siguientes:
— Normalidad: yij sigue una distribución normal.
— E(yij) = µi
— Homocedasticidad: V ar(yij) = σ2
— Independencia: yij son independientes entre sí.
B) Metodología
En nuestro análisis vamos a seguir los siguientes pasos:
— Estimar los parámetros del modelo.
— Contrastar si el factor influye en la respuesta, es decir, si los valores medios de Y
son diferentes al cambiar el nivel del factor.
— Si el factor influye en la variable respuesta, es decir, las medias no son iguales, buscar
las diferencias entre poblaciones (o niveles del factor).
— Diagnosis del modelo: comprobar si las hipótesis del modelo son ciertas mediante el
análisis de los residuos.
C) Estimación de los parámetros
En este ejemplo, a = 5, ni = 5 yN = 25. Las estimaciones puntuales de los parámetros
son las siguientes:
14
µ1 = y1· = 9,8
µ2 = y2· = 15,4
µ3 = y3· = 17,6
µ4 = y4· = 21,6
µ5 = y5· = 10,8
Por ejemplo, el intervalo de confianza para µ1, al nivel (1− α) = 0,95, es:"yi· ± tα
2,N−a
rMCE
n
#=
=
"9,8± t0,025,20
r8,06
5
#=
[7,1515, 12,4485]
D) Análisis de la varianza
El contraste de hipótesis que vamos a abordar es el siguiente:⎧⎨⎩ H0 : µ1 = · · · = µa (el factor no influye)H1 : algún factor es diferente (el factor influye)nivel de significación α
FV SC GL FTratamiento SCTra =
Pai=1 ni(yi· − y··)2 a− 1 F0 =
SCTra/(a−1)SCE/(N−a)
Error SCE =Pa
i=1
Pnij=1(yij − yi·)2 N − a
Total SCT =Pa
i=1
Pnij=1(yij − y··)2 N − 1
siendo FV = Fuente de variación, SC = Suma de Cuadrados, GL = Grados de libertad.
Las sumas de cuadrados también se pueden calcular de la siguiente forma:
SCT =XX
y2ij − ny2··
SCTra =X
niy2i· − ny2··
SCE = SCT − SCTra
15
Cuando sólo hay dos poblaciones (un factor con dos niveles), este contraste es idéntico
al contraste de la t para comparar las medias de dos poblaciones normales e idependientes
con la misma varianza.
Analizamos a continuación la tabla de análisis de la varianza del ejemplo 1
SCT =XX
y2ij − ny2·· =
= 72 + 72 + 152 + ...+ 152 + 112 − 25× 15,042 =
= 636,96
SCTra =X
niy2i· − ny2·· =
= 5(9,82 + ...+ 10,82)− 25× 15,042 =
= 475,76
SCE = SCT − SCTra = 636,96− 475,76 = 161,2
La tabla ANOVA es:
F.V. S.C. G.L. M.C. FTratamiento 475.76 4 118.94 14.76Error 161.2 20 8.06Total 636.96 24
F4,20;0,1 = 2,2489
F4,20;0,05 = 2,8661
F4,20;0,01 = 4,4307
Por lo tanto, rechazamos H0 a los niveles anteriores y concluimos que hay diferencias
entre los tratamientos.
Ejemplo 2. Analizaremos los siguientes conjuntos de datos:
16
Primer caso Segundo casoSumas Medias
20 19 20 21 80 2022 22 22 22 88 2224 24 23 25 96 24
264 22
Sumas Medias45 0 10 25 80 208 30 38 12 88 2215 44 2 35 96 24
264 22
Las medias son iguales en los dos casos, con lo cual la diferencia de medias debería ser
igual en ambos casos. Los diagramas de puntos, considerando en abscisas los grupos y en
ordenadas las observaciones, son:
Primer caso
4
2
1 2 319
20
21
22
23
24
25
2
Segundo caso
1 2 30
10
20
30
40
50
17
Debido a las diferentes dispersiones (varianzas) que existen en los dos casos, la im-
presión visual es muy distinta. En el segundo caso no se aprecia diferencia entre los tres
grupos (el factor no parece influir), mientras que en el primer caso, la cosa no está tan
clara. Entonces, no es suficiente sólo con comparar las medias de cada grupo, la variabi-
lidad tambié influye. Lo que vamos a hacer es comparar la variabilidad entre las medias
con la variabilidad dentro de cada grupo, mediante el análisis de la varianza.
Vamos a construir la tabla ANOVA:
Caso 1 :
SCT =aXi=1
niXj=1
(yij − y··)2 = 36.
SCTra =aXi=1
(yi· − y··)2 = 32
SCE = SCT − SCTra = 36− 32 = 4
La tabla ANOVA es:
F.V. S.C. G.L. M.C. FTratamiento 32 2 16 36Error 4 9 0.444Total 36 11
Como F2,9;0,05 = 4,2565, rechazamos la hipótesis nula y concluimos que el factor influye
en la respuesta.
Caso 2 :
SCT =XX
y2ij − ny2·· = 8692− 12× 222 = 2884.
SCTra =X
niy2i· − ny2·· = 5840− 12× 222 = 32
SCE = SCT − SCTra = 2884− 32 = 2852.
La tabla ANOVA es:
18
F.V. S.C. G.L. M.C. FTratamiento 32 2 16 0.05Error 2852 9 316.889Total 2884 11
Como F2,9;0,05 = 4,2565, no rechazamos la hipótesis nula y concluimos que el factor no
influye en la respuesta al nivel α = 0,05..
19
Comparaciones entre medias
Una vez obtenidas diferencias significativas entre los tratamientos, conviene estudiar
por qué se rechaza la igualdad entre medias, comparando todos los pares de medias,
porque puede ser que se rechace la igualdad de medias porque haya un par de medias
diferentes entre sí. Se considera, entonces, los siguientes contrastes:
H0 ≡ µi = µj, i 6= j
H0 ≡ µi 6= µj, i 6= j
Los métodos generales son las comparaciones múltiples y los tests de recorrido studen-
tizado.
Comparaciones múltiples.
LSD de Fisher (Least significant difference)
Se contrasta µi = µj, para todo i 6= j, (i, j = 1, . . . , a).
Se tiene que se distribuye como una t de Student:
(yi· − yj·)−¡µi − µj
¢σq
1ni+ 1
nj
∼ tN−a
Así, un Intervalo de Confianza para¡µi − µj
¢a nivel α es
[(yi· − yj·)± LSDα]
y se denomina
LSDα = tN−a,α2σ
s1
ni+1
nj
1. Si |yi· − yj·| > LSDα =⇒ Se rechaza que µi = µj a nivel α.
2. Si |yi· − yj·| < LSDα =⇒ Se acepta que µi = µj a nivel α.
Definición. (Distribución de recorrido estudentizada)
20
Si
Z1, . . . , Za ∼ N(0, 1)
U ∼ χ2m
independientemente, entonces,
Q = maxi6=j
|Zi − Zj|qUm
=Z(a) − Z(1)q
Um
∼ qa,m
se distribuye con una distribución de recorrido estudentizado de parámetros a y m.
Método de Tukey
Se requiere que ni = n, i = 1, . . . , a. Si esto no se cumple, entonces se toma n =
mıni {ni} .
1. Si |yi· − yj·| > qa,N−a;ασq
1n=⇒ Se rechaza que µi = µj a nivel α.
2. Si |yi· − yj·| < qa,N−a;ασq
1n=⇒ Se acepta que µi = µj a nivel α.
Método de Bonferroni
En este criterio se rechaza µi = µj (i 6= j) si
|yi· − yj·| > tN−a, α2pσ
s1
ni+1
nj
donde p es el número de comparaciones que se pueden obtener: 1 ≤ p ≤ ¡a2
¢.
Se puede aproximar tN−a, α2ppor una normal:
tv,α = zα +1
4v
¡z3α − zα
¢,
siendo zα ∼ N(0, 1).
21
Ejemplos.
En el problema de comparación del porcentaje de algodón en las prendas, las medias
muestrales eran:
yi· y1· y2· y3· y4· y5·9,8 15,4 17,6 21,6 10,8
Se tiene que
a = 5n = 5N = 25σ2 = 8,06N − a = 20.
— LSD de Fisher
LSDα = tN−a,α2σ
s1
ni+1
nj= t20,00025
r8,06 · 2
5= 3,745
— Método de Tuckey
HSDα =σ√nqa,N−a,α =
r8,06
5q5,20,0005 = 1,269 · 4,24 = 5,38
— Método de Bonferroni
Como
p =
µ5
2
¶= 10
luego hay 10 posibles comparaciones:
Bα = tN−a, α2pσ
s1
ni+1
nj= t
20, 000520
r8,06 · 2
5
Como
t20, 0
00520
= t20,000025 ≈ z0,0025 +1
4 · 20¡z30,0025 − z0,0025
¢=
= 2,81 +1
80
¡2,813 − 2,81¢ = 3,052
luego
Bα = t20, 0
00520
r8,06 · 2
5= 3,052 ·
r8,06 · 2
5= 5,48.
Así la tabla de diferencias es:
22
(i, j) (yi· − yj·) LSDα = 3,745 HSDα = 5,38 Bα = 5,48(1,2) 5,6 6= 6= 6=(1,3) 7,8 6= 6= 6=(1,4) 11,8 6= 6= 6=(1,5) 1,0 = = =(2,3) 2,2 = = =(2,4) 6,2 6= 6= 6=(2,5) 4,6 6= = =(3,4) 4 6= = =(3,5) 6,8 6= 6= 6=(4,5) 10,8 6= 6= 6=
Tests de recorrido studentizado
En estos tests, se requiere que ni = n, i = 1, . . . , a. Si esto no se cumple, entonces se
toma la media armónica:
n = a
µ1
n1+ · · ·+ 1
na
¶−1Los tests principales son:
— El test de Duncan
— El test de Newman-Keuls
En ambos tests se siguen los siguientes pasos:
(i) Se ordenan de manera creciente las medias muestrales a comparar:
y(1)· < y(2)· < · · · < y(a)·
(ii) Se comparan las diferencias entre dos medias separadas por p posiciones con p =
a, a− 1, . . . , 2 usando los siguientes puntos críticos:
Duncan.
dp =σ√nrp,N−a,α
donde rp,N−a,α se obtiene a partir de la tabla de intervalos significativos de
Duncan.
23
Newman-Keuls.
NKp =σ√nqp,N−a,α
donde qp,N−a,α se obtiene a partir de la tabla de la distribución de recorrido
studentizado.
Por ejemplo, para p = a se contrasta si
|y(a)· − y(1)·| > ra,N−a;ασ
r1
n
|y(a)· − y(1)·| > qa,N−a;ασ
r1
n
Para p = a− 1 se contrasta si
|y(a)· − y(2)·| > ra−1,N−a;ασ
r1
n
|y(a−1)· − y(1)·| > ra−1,N−a;ασ
r1
n
|y(a)· − y(2)·| > qa−1,N−a;ασ
r1
n
|y(a−1)· − y(1)·| > qa−1,N−a;ασ
r1
n
(iii) Se van declarando diferentes o no a las parejas de medias. Si no se declaran diferentes,
se conectan con una línea base. Al final sólo se declaran diferentes las medias que
no están conectadas por ninguna línea.
(iv) Si un grupo de medias no es significativamente diferente, ningún subgrupo de ellas
lo es.
Se tiene que la relación entre ambas tablas es la siguiente:
rp,N−a;α = qp,N−a;1−(1−α)p−1
Si comparamos los respectivos puntos críticos con N − a = 20, por ejemplo:
24
p 2 3 4 5 6 7 8rp,20,0001 4.02 4.22 4.33 4.4 4.47 4.53 4.58qp,20,0001 4.02 4.64 5.02 5.29 5.51 5.69 5.84
Se observa que rp,20,0001 ≤ qp,20,0001, con lo cual se tiene que
dα,p =σ√nrp,N−a,α < NKα,p =
σ√nqp,N−a,α,
es decir, el test de Newman-Keuls es más conservador que el de Duncan, de modo que si
se rechaza la H0 aplicando el test de Newman-Keuls, también se rechaza aplicando el test
de Duncan.
Ejemplo.
En el problema de comparación del porcentaje de algodón en las prendas, se ordenan
las medias muestrales de menor a mayor:
yi· y1· y5· y2· y3· y4·9,8 10,8 15,4 17,6 21,6
Test de Newman-Keuls:
p = 5 q5,20,0005 = 4,24 NK5 = 5,38p = 4 q4,20,0005 = 3,96 NK4 = 5,03p = 3 q3,20,0005 = 3,58 NK3 = 4,54p = 2 q2,20,0005 = 2,95 NK2 = 3,74
Test de Duncan:
p = 5 r5,20,0005 = 3,25 d5 = 4,12p = 4 r4,20,0005 = 3,18 d4 = 4,04p = 3 r3,20,0005 = 3,10 d3 = 3,93p = 2 r2,20,0005 = 2,95 d2 = 3,74
De este modo,
25
p |yi· − yj·| Newman-Keuls Duncan
5 |y1· − y4·| = 11,8 > 5,38 > 4,12
4 |y1· − y3·| = 7,8 > 5,03 > 4,03|y5· − y4·| = 10,8 > 5,03 > 4,03
3 |y1· − y2·| = 5,6 > 4,54 > 3,93|y5· − y3·| = 6,8 > 4,54 > 3,93|y2· − y4·| = 6,2 > 4,54 > 3,93
2 |y1· − y5·| = 1 < 3,74 < 3,74|y5· − y2·| = 4,6 > 3,74 > 3,74|y3· − y2·| = 2,2 < 3,74 < 3,74|y3· − y4·| = 4 > 3,74 > 3,74
Como conclusión, se obtiene que µ4 > µi para i = 1, 2, 3, 5 de manera significativa según
ambos criterios.
Y el resultado es:
µ1 µ5x______y
µ2 µ3x______y
µ4
Contrastes Ortogonales (método de Scheffé)
En general, un contraste entre k medias poblacionales se puede definir como una
combinación lineal
Ψ = c1µ1 + c2µ2 + · · ·+ caµa
tales que c1, . . . , ca son constantes de suma nula:Pa
j=1 cj = 0.
Un estimador de Ψ es
Ψ = c1x1· + c2x2· + · · ·+ caxa·
y la estimación de la varianza de Ψ es
σ2Ψ =MCE
µc21n1+ · · ·+ c2a
na
¶.
En particular, por ejemplo, la diferencia entre dos medias cualesquiera equivale a un
contraste
Ψ = ciµi + cjµj
26
con ci = 1 y cj = −1 y cero para el resto de términos.El procedimiento se Scheffé se aplica de la siguiente forma:
(i) Especificar Ψ así como los coeficientes que determinan el contraste. Calcular Ψ reem-
plazando las medias muestrales por las poblacionales.
(ii) Estimar σ2Ψ y calcular la razónΨ
σΨ.
(iii) Si la razón ¯Ψ¯
σΨ>q(a− 1)Fa−1,N−a,α,
se rechaza la hipótesis H0 ≡ Ψ = 0 al nivel α.
Ejemplo.
Supongamos que se trata de contrastar
Ψ1 = µ1 + µ3 − µ4 − µ5
Ψ2 = µ1 − µ4
Las estimas son
Ψ1 = x1· + x3· − x4· − x5· = 9,8 + 17,6− 21,6− 10,8 = 5,0
Ψ2 = x1· − x4· = 9,8− 21,6 = −11,8
σΨ1 =
vuutMCE5X
i=1
c2ini=
r8,06
4
5= 2,54
σΨ2 =
r8,06
2
5= 1,8
y como Fa−1,N−a,α = F4,20,0001 = 4,43, de modo quep(a− 1)Fa−1,N−a,α =
√4 · 4,43 = 4,21¯
Ψ1
¯σΨ1
=5,0
2,54= 1,97 < 4,21
se acepta la H0.
27
¯Ψ2
¯σΨ2
=11,8
1,8= 6,56 > 4,21
se rechaza la H0.
Aunque el método de Scheffé permite plantear muchas posibles comparaciones entre
medias, cuando se estudian sólo diferencias entre medias resulta menos eficaz que los tests
específicos para diferencias de pares de medias.
28
Estudio de la adecuación del modelo
La mayor parte de las desviaciones de las hipótesis básicas del modelo, se pueden
estudiar a través de los residuos:
eij = yij − yij
al igual que se hace, habitualmente en Regresión.
Así, el dibujo de los errores de modo secuencial a como aparecen las observaciones
permite detectar correlaciones entre los mismos y, de este modo, se observa si se cumple
la hipótesis de independencia. Si no es así, es un problema difícil de corregir en la práctica,
como no sea repitiendo el experimento y aleatorizando de modo conveniente.
También se puede considerar la gráfica de los errores frente a los valores predichos
yij = yi·, que no debería presentar tendencias en cuanto a su aspecto. Si lo hace, es un
signo de la existencia de varianza no constante o heterocedasticidad.
Cuando ni = n, para i = 1, . . . a la existencia de varianzas heterogéneas entre los
grupos, apenas afecta al contraste de la F . Sin embargo, si los tamaños muestrales son
desiguales, la probabilidad de cometer error de tipo I puede ser diferente al valor α prefi-
jado.
Para comprobar este supuesto, se puede considerar el test de Levene o el test de
Barlett. Sin embargo, la prueba de Levene tiene la ventaja de que no se ve afectada por
la falta de normalidad del modelo, y se puede aplicar a tamaños muestrales desiguales.
El estadístico de contraste de la prueba de Levene es
F0 =
Pai=1
Pnij=1
¡dij − di·
¢/(N − a)Pa
i=1 ni¡di· − d··
¢/(a− 1)
donde
dij = |yij − yi·| ,
di· =
Pnij=1 dij
ni,
d·· =
Pai=1
Pnij=1 dij
N.
29
Si las varianzas son homogéneas, entonces este estadístico F0 se distribuye como una
F de Snedecor, Fa−1,N−a,α, siendo α el nivel de significación elegido.
Transformaciones para conseguir homocedasticidad
Cuando se presenta homocedasticidad se debe a menudo a que la varianza cambia
cuando lo hace la media. Si µi es la media del grupo i-ésimo y σi su desviación típica,
entonces σi = f(µi) para alguna función f.
Para estabilizar la varianza se busca una función T tal que T (x) tenga varianza con-
stante. En la práctica se usa
T (xij) =
½xλij λ 6= 0log(xij) λ = 0
En particular se suele considerar una función f de la forma
f(µi) = kµαi
de modo que
σi = kµαi
Se puede demostrar que para conseguir la homocedasticidad, se debe usar la transforma-
ción con parámetro λ = 1− α.
Para estimar λ se usan los diagramas rango-media. Se asume el ajuste a una ecuación
del tipo σ = kµα y así
log(σ) = log(k) + α log(µ)
α será la pendiente de la recta que pasa por los puntos del gráfico, esto es, de la corre-
spondiente recta de regresión. Una vez estimado α se calcula λ = 1− α.
Observaciones
(i) Las transformaciones estabilizadoras de la vrainza se definen sólo para conjuntos de
datos positivos. En caso contrario, hay que sumar una constante a los datos.
30
(ii) En general se considera una rejilla de valores de λ y se va probando con múltiplos
de 12.
(iii) Frecuentemente la transformación no sólo estabiliza la varianza sino que normaliza
los datos, cuando estos no se distribuyen como una normal.
31
Modelo de efectos aleatorios
Si el número de niveles del factor no está fijado de antemano, sino que es una muestra
aleatoria de una población de niveles, entonces se tiene un modelo de efectos aleatorios.
El modelo se expresa igual que antes
yij = µ+ τ i + εij
donde i = 1, 2, . . . , a y j = 1, 2, . . . , n, siendo, en este caso, τ i y εij variables aleatorias.
Si se asume que τ i y εij son independientes, y que τ i tiene como varianza σ2τ , entonces
la varianza de una observación dada es
V ar(yij) = σ2τ + σ2.
Se denomina a σ2τ y a σ2 como los componentes de la varianza y se supone que
εij ∼ N(0, σ2)
τ i ∼ N(0, σ2τ)
independientemente entre sí.
Ahora carece de sentido contrastar hipótesis basadas en tratamientos individuales, por
lo que se contrasta:
H0 ≡ σ2τ = 0
H1 ≡ σ2τ > 0
Todos los tratamientos serán iguales si σ2τ = 0. Sin embargo, si σ2τ > 0 existe variabi-
lidad entre los tratamientos.
En este caso, si H0 es cierta, σ2τ = 0, entonces
F0 =SCTraa−1SCEN−a
=MCTra
MCE∼ Fa−1,N−a
32
Si se consideran los valores esperados de las medias de cuadrados, entonces
E [MCTra] =1
a− 1E [SCTra] =
=1
a− 1E"
aXi=1
y2i·n− y2··
N
#= σ2 + nσ2τ .
Del mismo modo, se obtiene que
E [MCE] = σ2.
Si la hipótesis alternativa es cierta, entonces el valor esperado del numerador en F0 es
mayor que el esperado del denominador. Así, se rechaza H0 para valores altos de F0, con
lo cual, la región crítica es unilateral superior, rechazándose si
F0 > Fa−1,N−a,α
El procedimiento de cálculo es igual que en el modelo de efectos fijos, aunque las
conclusiones se aplican a toda la población de tratamientos.
Estima de los componentes de la varianza
Si se igualan los valores esperados de las medias de cuadrados con los valores obser-
vados, se obtiene
MCTra = σ2 + nσ2τ
MCE = σ2
de donde
σ2 = MCE
σ2τ =MCTra−MCE
n
NOTA:
Si ni, para i = 1, . . . , a son distintos entre sí, se sustituye en la expresión anterior n
por
n0 =1
a− 1
"aXi=1
ni −Pa
i=1 n2iPa
i=1 ni
#.
33
Ejemplo.
Una fábrica de maquinillas de afeitar utiliza una gran cantidad de máquinas en la
producción. Se desea que las máquinas sean homogéneas para producir objetos de la
misma calidad. Para investigar si existen variaciones significativas entre las máquinas,
se seleccionan 4 al azar y se mide el porcentaje de un cierto componente de la hoja. El
experimento se realiza con orden aleatorio.
yi·Máquina 1 98 97 99 96 390Máquina 2 91 90 93 92 366Máquina 3 96 95 97 95 383Máquina 4 95 96 99 98 388
y·· = 1527
Se obtiene la siguiente tabla ANOVA:
F.V. S.C. G.L. M.C. F0Explicada 89.19 3 29.73 15.68Residual 22.75 12 1.90Total 11.94 15
Como
F3,12,0005 = 3,49 < 15,68
Se rechaza H0 ≡ στ = 0.
Estimación de los componentes de la varianza:
σ2 = MCE = 1,90
σ2τ =MCTra−MCE
n=29,73− 1,90
4= 6,96.
La estimación de la varianza de cualquier observación de la muestra es
σ2 + σ2τ = 1,90 + 6,96 = 8,86
y la mayor parte de la variabilidad se debe a diferencias entre las máquinas.
34
Intervalos de confianza para los componentes de la varianza
El intervalo de confianza para σ2 al 100(1− α)% es
(N − a)MCE
χ2N−a,α2
≤ σ2 ≤ (N − a)MCE
χ2N−a,1−α2
El intervalo de confianza para σ2τ no se puede calcular de modo exacto, dado que depende
de una combinación lineal de χ2’s. Por tanto se calcula el intervalo para el cociente
σ2τσ2 + σ2τ
.
Se denomina
l1 =1
n
ÃMCTra
MCE
1
Fa−1,N−a,α2
− 1!
l2 =1
n
ÃMCTra
MCE
1
Fa−1,N−a,1−α2
− 1!
entonces el intervalo de confianza al 100(1− α)% es
l11 + l1
≤ σ2τσ2 + σ2τ
≤ l21 + l2
.
Ejemplo.
En el caso de la fábrica de maquinillas de afeitar,
Fa−1,N−a,α2= F3,12,0,025 = 4,47
Fa−1,N−a,1−α2= F3,12,0,975 =
1
F12,3,0,025= 0,070.
De este modo
l1 =1
n
ÃMCTra
MCE
1
Fa−1,N−a,α2
− 1!= 0,625
l2 =1
n
ÃMCTra
MCE
1
Fa−1,N−a,1−α2
− 1!= 54,883
35
de modo que
l11 + l1
≤ σ2τσ2 + σ2τ
≤ l21 + l2
0,625
1, 625≤ σ2τ
σ2 + σ2τ≤ 54,88355,883
0,39 ≤ σ2τσ2 + σ2τ
≤ 0,98
Esto es, la variabilidad de las máquinas justifica entre el 40% y el 98% de la variabilidad
total.
36
Test de Kruskal-Wallis
Cuando no está justificado asumir normalidad, se puede utilizar la metodología no
paramétrica. El test de Kruskal-Wallis propone como hipótesis nula que los a tratamientos
son iguales, frente a la hipótesis alternativa de que algunas observaciones son mayores que
otras entre los tratamientos. Se puede considerar que este test es adecuado para contrastar
la igualdad entre las medias.
Procedimiento.
Se calculan rangos de cada una de las observaciones yij de manera creciente y se reem-
plaza por su rango Rij, donde la menor observación tendría el valor 1. En caso de empates,
se asigna a todas las observaciones empatadas el valor medio de sus correspondientes ran-
gos.
Se denota como Ri· la suma de los rangos del i-ésimo tratamiento de modo que el
estadístico es
H =1
S2
"aXi=1
R2i·ni− N(N + 1)2
4
#donde ni es el número de observaciones que hay en el tratamiento i, N es el número total
de observaciones y
S2 =1
N − 1
"aXi=1
niXj=1
R2ij −N(N + 1)2
4
#.
Se puede observar que S2 es simplemente la varianza de los rangos. Si no hay empates,
entonces S2 = N(N+1)12
y el test se simplifica, quedando el estadístico
H =12
N(N + 1)
aXi=1
R2i·ni− 3(N + 1).
Para valores ni > 5, H se distribuye aproximadamente como una χ2a−1 si la hipótesis
nula es cierta. Por tanto, si H > χ2a−1,α se rechaza la hipótesis nula a un nivel α.
Ejemplo.
En el ejemplo de las camisas fabricadas según su porcentaje de algodón, se tenían los
siguientes datos:
37
% de algodón Observaciones15 7 7 15 11 920 12 17 12 18 1825 14 18 18 19 1930 19 25 22 19 2335 7 10 11 15 11
Si se calculan los correspondientes rangos, se obtiene:
Rangos SumaR1j 2 2 12.5 7 4 27.5R2j 9.5 14 9.5 16.5 16.5 66R3j 11 16.5 16.5 20.5 20.5 85R4j 20.5 25.5 23 20.5 24 113R5j 2 5 7 12.5 7 33.5
Así, calculando
S2 =1
N − 1
"aXi=1
niXj=1
R2ij −N(N + 1)2
4
#=
1
24
∙5497,79− 25 · 26
2
4
¸= 53,03
H =1
S2
"aXi=1
R2i·ni− N(N + 1)2
4
#=
=1
53,03
∙52,45− 25 · 26
2
4
¸= 19,25.
Como H > χ24,0,01 = 13,28, entonces se rechaza la hipótesis nula obteniéndose la misma
conclusión que en el caso de usar el test clásico paramétrico.
38
Test de aleatorización y test Bootstrap
Se pueden realizar tests de aleatorización sobre los errores para contrastar medias. El
algoritmo es
1. Calcular el estadístico F0 del modo habitual sobre los datos originales.
2. Calcular el residuo para cada observación, como la diferencia entre cada observación
y la media de todas las observaciones dentro de su grupo correspondiente.
3. Asignar aleatoriamente los residuos en los grupos del mismo tamaño sumándolos a
las medias de cada grupo, y calcular F1, el estadístico de la F de Snedecor obtenido
sobre los nuevos datos generados.
4. Repetir el paso (3) un número N de veces para generar los valores F1, F2, . . . , FN
5. Declarar que F0 es significativo a un nivel α si es mayor que el valor correspondiente
al percentil (1− α) de los valores F1, F2, . . . , FN .
Se puede modificar este algoritmo, cambiando el paso (3) remuestreando los residuos
con reemplazamiento para producir nuevos conjuntos de datos. Este método da un test
Bootstrap de significación que tiene propiedades similares al anterior. Sin embargo, hay
una diferencia entre ambos métodos:
El test basado en aleatorización, se basa en la idea de que los residuos aparecen orden
aleatorio, mientras que el método Bootstrap se basa en una aproximación a la distribución
F de Snedecor que se obtendría remuestreando de las poblaciones de donde vienen los datos
originales.
39
Selección del tamaño de una muestra
En diseño de experimentos un problema importante es el de determinar el número de
réplicas que se tienen que realizar para cada tratamiento.
Una técnica frecuentemente empleada se basa en fijar el error de tipo II.
Observaciones.
Se puede cometer error de tipo I:
α = P {Rechazar H0|H0 es cierta}
o bien
β = P {No Rechazar H0|H0 es falsa}
Se llama potencia de un test a la P {Rechazar H0|H0 ∪H1} , de modo que
1− β = P {Rechazar H0|H0 es falsa}
coincide con la potencia del test cuando H0 es falsa.
Se trata de construir contrastes que tengan un tamaño α fijo y una potencia máxima (es
decir un valor β pequeño) cosa que cumplen, por ejemplo, los testUMP (de uniformemente
máxima potencia).
En este caso
β = 1− P {F0 > Fa−1,N−a,α|H0 es falsa} .
Para calcular esta probabilidad, se necesita conocer la distribución de F0 = MCTraMCE
cuando
la hipótesis nula es falsa. Se puede demostrar que en ese caso, se distribuye como una F
no centrada con a− 1 y N − a grados de libertad y un cierto parámetro de centralidad.
Se utilizan curvas características que dibujan la probabilidad de error de tipo II (β)
frente a un parámetro Φ donde
Φ2 =
naXi=1
τ 2i
aσ2=
aXi=1
niτ2i
aσ2
40
La cantidad Φ2 está relacionada con el parámetro de centralidad, y se presentan habit-
ualmente curvas para α = 0,05 y α = 0,01.
El parámetro anterior, depende de
1. Los valores τ 1, . . . , τ a o bien µ1, . . . , µa para los que se consideran medias distintas,
ya que obviamente dichos valores no son conocidos previamente.
2. El valor de σ2, que al ser también desconocido, se suele usar el valor que se obtiene
mediante una muestra piloto.
3. El número de réplicas por tratamiento.
Así, fijados los valores de τ i y el valor de σ2 se debe determinar n para que la potencia
sea (1− β). Una manera de hacerlo es buscando en las tablas de curvas características de
operación.
Ejemplo.
Supongamos que en el ejemplo de las prendas el experimentador está interesado en
rechazar la igualdad entre los tratamientos con una probabilidad mínima de 0,9 (error de
tipo II: β = 0,1).
Se asumen unas medias poblacionales por grupo igual a
µ1 = 11, µ2 = 12, µ3 = 15, µ4 = 18, µ5 = 19
de modo que la media total es µ = 11+12+15+18+195
= 15.
Supongamos una estimación previa (mediante e.g. una muestra piloto) de σ2 = 9 y
que el nivel α elegido es 0,01. Se tiene que τ i = µi − µ, de manera que
τ 1 = 11− 15 = −4
τ 2 = 12− 15 = −3
τ 3 = 15− 15 = 0
τ 4 = 18− 15 = 3
τ 5 = 19− 15 = 4
41
Entonces
Φ2 =
n5X
i=1
τ 2i
5σ2=
n(16 + 16 + 9 + 9)
5 · 9 = 1,11 · n
Se construye una tabla, dando distintos valores a n :
n Φ2 Φ g.l. (a− 1, a(n− 1)) β (1-β) Potencia4 4,44 2,11 (4, 15) 0,3 0,75 5,55 2,36 (4, 20) 0,15 0,856 6,66 2,58 (4, 25) 0,04 0,96
Por tanto es necesario realizar, al menos, 6 réplicas.
Lectura de las Curvas de Operación
(i) Se elige la curva de operación. Para ello se calculan los grados de libertad: a − 1 =5− 1 = 4, y se elige la curva con v1 = 4.
(ii) Se fija el haz de curvas correspondiente al valor de α elegido: en el ejemplo, sería
α = 0,01.
(iii) Se elige la curva correspondiente a v2 = a(n− 1). Por ejemplo, si n = 4, se tomaríav2 = 15.
(iv) En el eje X se busca el valor del parámetro Φ y se fija la ordenada para ese valor
de Φ que muestra la curva de operación elegida en (iii). Por ejemplo, para n = 4,
v2 = 15, el valor está cerca de 0,30.
(v) El valor de la probabilidad de error de tipo II está en la ordenada. En el ejemplo es
0.30, de manera que la potencia es (1− β) = 0,70.
A menudo resulta difícil seleccionar las medias para cada tratamiento que se quieren
usar, para determinar el tamaño de la muestra. Una alternativa consiste en considerar el
valor de la máxima diferencia posible entre las medias: D.
42
Se puede demostrar que el valor mínimo de Φ2 es
Φ2 =D2n
2aσ2.
Como es el valor mínimo, entonces se obtiene el tamaño muestral adecuado para obtener
como mínimo la potencia especificada.
Modelo de efectos aleatorios
En este modelo, se contrasta
H0 ≡ στ = 0
H1 ≡ στ > 0
En este caso, si H1 es cierta, entonces
F0 =MCTra
MCE∼ Fa−1,N−a
de manera que se pueden usar las tablas habituales de la F de Snedecor para determinar
el tamaño muestral.
También se pueden usar curvas de operación característica, donde aparecen las gráficas
del error de tipo II, frente al parámetro
λ =
r1 +
nσ2τσ2
Los términos σ2τ y σ2 al ser desconocidos se fijan dependiendo de la sensibilidad deseada
para el experimento.
43
Aplicación con R Se puede usar la librería Rcmdr de R, y ejecutar las siguientes sentencias en la ventana de arriba de Rcmdr: library(Rcmdr) Datos <- read.table("C:/CursoCIII/Disenno/Practicas06/dat1Fac.txt", header=TRUE, sep="", na.strings="NA", dec=".", strip.white=TRUE) Datos$grupo <- factor(Datos$grupo, labels=c('15%','20%','25%','30%','35%')) tapply(Datos$medida, Datos$grupo, var, na.rm=TRUE) levene.test(Datos$medida, Datos$grupo) tapply(Datos$medida, Datos$grupo, var, na.rm=TRUE) bartlett.test(medida ~ grupo, data=Datos) anova(lm(medida ~ grupo, data=Datos)) tapply(Datos$medida, Datos$grupo, mean, na.rm=TRUE) # means tapply(Datos$medida, Datos$grupo, sd, na.rm=TRUE) # std. deviations tapply(Datos$medida, Datos$grupo, function(x) sum(!is.na(x))) # counts tapply(Datos$medida, Datos$grupo, median, na.rm=TRUE) kruskal.test(medida ~ grupo, data=Datos) plotMeans(Datos$medida, Datos$grupo, error.bars="conf.int", level=0.95) boxplot(medida~grupo, ylab="medida", xlab="grupo", data=Datos) #................................................................... Alternativamente, se puede hacer lo mismo con R pero mediante sentencias: # Con Sintaxis setwd("c:/Curso/… ") datos <- read.table("dat1Fac.txt", header=T) attach(datos) elgrupo <- factor(grupo, labels=c('15%','20%','25%','30%','35%')) # Para ver transformaciones de Box-Cox: # Se busca el maximo de la funcion de verosimilitud library(MASS) boxcox(medida ~ grupo, data=datos, lambda=seq(-3, 3)) # De modo artesanal: premedias <- lapply(1:5,function(eso){mean(medida[grupo==eso])}) predesv <- lapply(1:5,function(eso){sqrt(var(medida[grupo==eso]))}) medias <- NULL medias <- for (i in 1: 5) {medias <- c(medias,premedias[[i]]) } desv <- NULL desv <- for (i in 1: 5) {desv <- c(desv,predesv[[i]]) }
44
lmedias <- log(medias) ldesv <- log(desv) mod <- lm(ldesv~lmedias) summary(mod) # El coeficiente de la transformacion es (1-pendiente) # redondeado al valor mas proximo a multiplos de 0.5 lambda <- 1-mod$coefficients[[2]] boxplot(medida ~ elgrupo, main="Distribución de medidas por grupos") fac1 <- aov(medida ~ elgrupo) summary(fac1) coefficients(fac1) # Graficas por defecto de aov par(mfrow=c(2,2)) plot(fac1) #................................................................... # Graficos de ajuste varios # Grafica de ajuste a normalidad qqnorm(fac1$res) qqline(fac1$res) plot(fac1$fit,fac1$res,xlab="Valores Ajustados",ylab="Residuos", main="Residuos frente a niveles") abline(h=0,lty=2) # Analizo los residuos para verificar que cumple con las hipótesis plot(fitted.values(fac1),rstandard(fac1), xlab="Valores Ajustados", ylab="Residuos Estandarizados",pch=20) plot(jitter(fac1$fit),fac1$res,xlab="Fitted",ylab="Residuos", main="Grafico Jittered") #................................................................... Se puede considerar un test no paramétrico, de modo alternativo: # test de no parametrico de Kruskal-Wallis krus <- kruskal.test(medida,elgrupo) krus
45
Para comparaciones múltiples se pueden considerar el test de LSD, el de Bonferroni y el test de Tukey. El test de LSD hay que programarlo: # test de LSD n1 <- sum(fac1$model$grupo=="1") n4 <- sum(fac1$model$grupo=="4") s <- sqrt(sum((fac1$residuals)^2)/fac1$df.residual) tcrit <- qt(0.025, fac1$df.residual, lower.tail=F) LSD <- tcrit*s*sqrt((1/n1)+(1/n4)) LSD # Metodo de Bonferroni library(stats) pairwise.t.test(medida,elgrupo,p.adjust.method="bonferroni") # test de Tukey TukeyHSD(aov(medida ~ elgrupo))
46
Aplicación con SAS options ls=75 nodate nonumber; title 'ANOVA UNIFACTORIAL DE EFECTOS FIJOS'; data ano1; input grupo medida; cards; 1 7 1 7 1 15 1 11 1 9 2 12 2 17 2 12 2 18 2 18 3 14 3 18 3 18 3 19 3 19 4 19 4 25 4 22 4 19 4 23 5 7 5 10 5 11 5 15 5 11 ; proc anova; class grupo; model medida=grupo; means grupo /duncan snk lsd tukey; run; ANOVA UNIFACTORIAL DE EFECTOS FIJOS The ANOVA Procedure Class Level Information Class Levels Values grupo 5 1 2 3 4 5 Number of observations 25
47
Dependent Variable: medida Sum of Source DF Squares Mean Square F Value Pr > F Model 4 475.7600000 118.9400000 14.76 <.0001 Error 20 161.2000000 8.0600000 Corrected Total 24 636.9600000 R-Square Coeff Var Root MSE medida Mean 0.746923 18.87642 2.839014 15.04000 Source DF Anova SS Mean Square F Value Pr > F grupo 4 475.7600000 118.9400000 14.76 <.0001 t Tests (LSD) for medida NOTE: This test controls the Type I comparisonwise error rate, not the experimentwise error rate. Alpha 0.05 Error Degrees of Freedom 20 Error Mean Square 8.06 Critical Value of t 2.08596 Least Significant Difference 3.7455 Means with the same letter are not significantly different. t Grouping Mean N grupo A 21.600 5 4 B 17.600 5 3 B B 15.400 5 2 C 10.800 5 5 C C 9.800 5 1
48
Duncan's Multiple Range Test for medida NOTE: This test controls the Type I comparisonwise error rate, not the experimentwise error rate. Alpha 0.05 Error Degrees of Freedom 20 Error Mean Square 8.06 Number of Means 2 3 4 5 Critical Range 3.745 3.931 4.050 4.132 Means with the same letter are not significantly different. Duncan Grouping Mean N grupo A 21.600 5 4 B 17.600 5 3 B B 15.400 5 2 C 10.800 5 5 C C 9.800 5 1
49
Student-Newman-Keuls Test for medida NOTE: This test controls the Type I experimentwise error rate under the complete null hypothesis but not under partial null hypotheses. Alpha 0.05 Error Degrees of Freedom 20 Error Mean Square 8.06 Number of Means 2 3 4 5 Critical Range 3.7454539 4.5427095 5.0256316 5.3729604 Means with the same letter are not significantly different. SNK Grouping Mean N grupo A 21.600 5 4 B 17.600 5 3 B B 15.400 5 2 C 10.800 5 5 C C 9.800 5 1 Tukey's Studentized Range (HSD) Test for medida NOTE: This test controls the Type I experimentwise error rate, but it generally has a higher Type II error rate than REGWQ. Alpha 0.05 Error Degrees of Freedom 20 Error Mean Square 8.06 Critical Value of Studentized Range 4.23186 Minimum Significant Difference 5.373 Means with the same letter are not significantly different. Tukey Grouping Mean N grupo A 21.600 5 4 A B A 17.600 5 3 B B C 15.400 5 2 C D C 10.800 5 5 D D 9.800 5 1
50
options ls=75 nodate nonumber; title 'ANOVA UNIFACTORIAL DE EFECTOS ALEATORIOS'; data ano1; input caja peso; cards; 1 48 1 49 2 46 2 49 2 49 3 51 3 50 3 50 3 52 3 49 4 51 4 51 4 52 4 53 5 52 5 50 5 53 6 50 6 50 6 51 6 49 ; proc glm; class caja; model peso=caja; random caja/ test; proc varcomp method=type1; class caja; model peso=caja; run; ANOVA UNIFACTORIAL DE EFECTOS ALEATORIOS The GLM Procedure Class Level Information Class Levels Values caja 6 1 2 3 4 5 6 Number of observations 21
51
Dependent Variable: peso Sum of Source DF Squares Mean Square F Value Pr > F Model 5 36.69285714 7.33857143 5.21 0.0057 Error 15 21.11666667 1.40777778 Corrected Total 20 57.80952381 R-Square Coeff Var Root MSE peso Mean 0.634720 2.361750 1.186498 50.23810 Source DF Type I SS Mean Square F Value Pr > F caja 5 36.69285714 7.33857143 5.21 0.0057 Source DF Type III SS Mean Square F Value Pr > F caja 5 36.69285714 7.33857143 5.21 0.0057 Source Type III Expected Mean Square caja Var(Error) + 3.4476 Var(caja) Tests of Hypotheses for Random Model Analysis of Variance Dependent Variable: peso Source DF Type III SS Mean Square F Value Pr > F caja 5 36.692857 7.338571 5.21 0.0057 Error: MS(Error) 15 21.116667 1.407778 Variance Components Estimation Procedure Class Level Information Class Levels Values caja 6 1 2 3 4 5 6 Number of observations 21 Dependent Variable: peso
52
Type 1 Analysis of Variance Sum of Source DF Squares Mean Square caja 5 36.692857 7.338571 Error 15 21.116667 1.407778 Corrected Total 20 57.809524 . Type 1 Analysis of Variance Source Expected Mean Square caja Var(Error) + 3.4476 Var(caja) Error Var(Error) Corrected Total . Type 1 Estimates Variance Component Estimate Var(caja) 1.72026 Var(Error) 1.40778
53
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
4. Bloques Aleatorizados, Cuadrados Latinos y Diseños Relacionados
DISEÑO ALEATORIZADO POR BLOQUES COMPLETOS
DISEÑO DE CUADRADO LATINO
DISEÑO DE CUADRADOS GRECO-LATINOS
Diseño por bloques aleatorizadoscompletos
Introducción
Al estudiar la influencia de un factor sobre una variable cuantitativa es frecuente que
aparezcan otras variables o factores que también influyen y que deben ser controladas.
A estas variables se las denomina variables bloque, y se caracterizan por
(i) No son el motivo del estudio sino que aparecen de forma natural y obligada en el
mismo.
(ii) Se asume que no tienen interacción con el factor en estudio.
Ejemplo. Se quieren determinar las necesidades energéticas de una persona cuando anda,
come o hace deporte. Supongamos que se tienen 10 personas para realizar el experimento
y se considera como variable respuesta o cuantitativa, el número de calorías consumidas
por segundo. Los resultados varían según el individuo considerado. Aquí, el factor es la
actividad realizada, con 3 posibles niveles: andar, comer o hacer gimnasia.
Si a cada una de las personas se le asigna una actividad distinta puede ser que la
variabilidad observada entre las distintas actividades sea debida a las diferencias entre
los propios individuos. Una posible solución es que cada uno de los individuos realice las
tres actividades. De este modo, la variable bloque es el tipo de persona y cada uno de los
bloques es cada persona.
A cada bloque (persona) se le aplican los 3 niveles del factor por orden aleatorio:
1
Persona 1 Persona 2 · · · Persona 10C G · · · AA A · · · GG C · · · C
Observaciones
Una variable bloque no presenta interacción con los factores en estudio.
El modelo se dice que es de bloques aleatorizados completos cuando en cada bloque se
presentan todos los posibles tratamientos (o un múltiplo de ese número) y dentro de cada
bloque se asignan los tratamientos de forma aleatoria.
En ocasiones no se pueden asignar todos los tratamientos sobre cada bloque, de modo
que se tienen los diseños por bloques aleatorizados incompletos.
Modelo
Suponemos que el número de unidades experimentales para cada bloque coincide con
el número de tratamientos, esto es, hay una observación para cada cruce de los niveles
del factor y del bloque. La variable respuesta Y puede depender de un primer factor de
interés (A) y de la variable bloque (B). El modelo es:
Yij = μ+ αi + βj + εij
para i = 1, . . . , a y j = 1, . . . , b, siendo:
— μ el efecto medio global
— αi el efecto incremental sobre la media causado por el nivel i del factor A
— βj el efecto incremental sobre la media causado por el nivel j del bloque B
— εij el término de error.
2
Vamos a suponer queaXi=1
αi =bX
j=1
βj = 0
El problema consiste en comparar las medias de los tratamientos, esto es
H0 ≡ μ1 = μ2 = · · · = μa
H1 ≡ μi 6= μj i 6= j
lo cual es equivalente a
H0 ≡ αi = 0
H1 ≡ αj 6= 0 ∃j
Se consideran las siguientes hipótesis sobre el modelo:
— Normalidad: εij sigue una distribución normal. Esto es equivalente a que Yij sigue
una distribución normal.
— Linealidad: E(εij) = 0. Esto es equivalente a que E(Yij) = μ+ αi + βj.
— Homocedasticidad: V ar(εij) = σ2. Esto es equivalente a que V ar(Yij) = σ2.
— Independencia: εij son independientes entre sí. Esto es equivalente a que Yij son
independientes entre sí.
Estimación de los parámetros
Se estiman por el método de los mínimos cuadrados.
Se calcula
mınμ,αi,βj
φ = mınaXi=1
bXj=1
¡yij − μ− αi − βj
¢2sujeto a
aXi=1
αi =bX
j=1
βj = 0
3
Se tiene
∂φ
∂μ= −2
aXi=1
bXj=1
¡yij − μ− αi − βj
¢= 0 =⇒
aXi=1
bXj=1
yij − abμ = 0 =⇒
μ =1
ab
aXi=1
bXj=1
yijk = y··
Para i fijado
∂φ
∂αi= −2
bXj=1
¡yij − μ− αi − βj
¢= 0 =⇒
bXj=1
yij − bμ− bαi = 0 =⇒
αi =1
b
bXj=1
yij − y·· = yi· − y··
Análogamente, para j fijado,
βj = y·j − y··
Así,
yij = y·· + (yi· − y··) + (y·j − y··) =
= yi· + y·j − y··
El número de parámetros a estimar en total es
1 + (a− 1) + (b− 1) = a+ b− 1
Como el número total de observaciones es N = ab, entonces el número de grados de
libertad es
ab− a− b+ 1 = (a− 1)(b− 1)
4
De este modo, como
SCE =aXi=1
bXj=1
(yij − yij)2 =
aXi=1
bXj=1
(yij − (yi· + y·j − y··))2 =
=aXi=1
bXj=1
(yij − yi· − y·j + y··)2 ,
entonces la estima de la varianza total es
σ2 =1
(a− 1)(b− 1)
aXi=1
bXj=1
(yij − yi· − y·j + y··)2 .
Descomposición de la suma de cuadrados
Descomponemos la variabilidad total de la siguiente forma:
SCT = SCA + SCB + SCE
siendo
SCT =aXi=1
bXj=1
(yij − y··)2 =
aXi=1
bXj=1
y2ij −Ny2·· =
=aXi=1
bXj=1
y2ij −y2··N≡ “Suma de cuadrados total”
SCA = baXi=1
(yi· − y··)2 = b
aXi=1
y2i· −Ny2·· =
=1
b
aXi=1
y2i· −y2··N≡ “Suma de cuadrados explicada debido al factor A”
SCB = abX
j=1
(y·j − y··)2 = a
bXj=1
y2·j −Ny2·· =
=1
a
bXj=1
y2·j −y2··N≡ “Suma de cuadrados explicada debido al bloque”
SCE =aXi=1
bXj=1
(yij − yi· − y·j + y··)2 = SCT − SCA − SCB
≡ “Suma de cuadrados residual”
5
Se puede demostrar que
E
∙SCA
a− 1
¸= σ2 +
bPa
i=1 α2i
a− 1
E
∙SCB
b− 1
¸= σ2 +
aPb
i=1 β2j
b− 1
E
∙SCE
(a− 1)(b− 1)
¸= σ2
De este modo, se puede considerar el estadístico
F0 =MCA
MCE=
SCAa−1SCE
(a−1)(b−1)
de modo que si H0 es cierta, F0 se distribuye como una F de Snedecor, Fa−1,(a−1)(b−1),α,
de manera que se rechaza la H0 si
F0 > Fa−1,(a−1)(b−1),α
Se podría plantear contrastar la igualdad entre los bloques, aunque hacer esto está en
contra de la suposición previa: si se ha considerado un diseño por bloques es porque estos
influyen en el experimento.
Si se considerase un estadístico de la forma
F0 =MCB
MCE=
SCBb−1SCE
(a−1)(b−1)
aparecerían dificultades teóricas dado que la aleatorización sólo se realiza dentro de cada
bloque.
La tabla de análisis de la varianza queda como:
F. V. S. C. G. L. M. C. FFactor A SCA a− 1 MCA =
SCAa−1 F0 =
MCAMCE
Factor Bloque SCB b− 1 MCB =SCBb−1
Residual SCE (a− 1)(b− 1) MCE = SCE(a−1)(b−1)
Total SCT ab− 1
6
Ejemplo. Se realiza un experimento para determinar el efecto de cuatro sustancias quími-
cas diferentes sobre la resistencia de una tela. Las sustancias se emplean como parte del
proceso terminal de planchado permanente. Para ello, se escogen cinco muestras de tela
y se aplica un diseño aleatorizado por bloques completos mediante la prueba de cada
sustancia en un orden aleatorio sobre cada una de las muestras de tela. Se probará la
diferencia en las medias utilizando para ello el análisis de la varianza con α = 0,01. Los
datos aparecen a continuación.
Sustancia\Muestra 1 2 3 4 5 Media1 1,3 1,6 0,5 1,2 1,1 y1· = 1,142 2,2 2,4 0,4 2,0 1,8 y2· = 1,763 1,8 1,7 0,6 1,5 1,3 y3· = 1,384 3,9 4,4 2,0 4,1 3,4 y4· = 3,56
Media y·1 = 2,3 y·2 = 2,53 y·3 = 0,88 y·4 = 2,2 y·5 = 1,9 y·· = 1,96
El factor de interés es la sustancia química, con cuatro niveles y el factor bloque es la
muestra de tela, con cinco niveles. Entonces a = 4, b = 5 y n = 20.
Las sumas de cuadrados son:
SCT =aXi=1
bXj=1
y2ij − ny2·· = 1,32 + 1,62 + · · ·+ 4,12 + 3,42 − 20× 1,962 = 25,69
SCA = baXi=1
y2i· − ny2·· = 5(1,142 + 1,762 + 1,382 + 3,562)− 20× 1,962 = 18,04
SCB = abX
j=1
y2·j − ny2·· = 4(2,32 + 2,532 + 0,882 + 2,22 + 1,92)− 20× 1,962 = 6,69
SCE = SCT − SCA − SCB = 25,69− 18,04− 6,69 = 0,96
La tabla ANOVA es:
F.V. S.C. G.L. M.C. FSustancia 18.04 3 6.01 75.13Muestra 6.69 4 1.67Residual 0.96 12 0.08Total 25.69 19
Como F3,12;0,01 = 5,9526, existe una diferencia significativa en las sustancias químicas
en cuanto al efecto que tienen sobre la resistencia promedio de la tela.
7
Observación
Si las medias de los tratamientos son diferentes entre sí se pueden considerar los tests
de comparaciones múltiples y de rangos estudentizados, que se vieron para el modelo
unifactorial general. Se ha de reemplazar el número de réplicas por nivel del factor (n)
por el número de bloques (b).
A su vez, los grados de libertad del error han de cambiarse de (N − a) en el caso
general a (a− 1)(b− 1).
8
Cuadrados latinos
En principio, un modelo completo con tres factores y todas las posibles interacciones
sería:
yijk = μ+ αi + βj + γk + (αβ)ij + (αγ)ik + (βγ)jk + (αβγ)ijk + εijk
para i = 1, . . . , a, j = 1, . . . , b y k = 1, . . . ,K; siendo εijk ∼ N(0, σ2) independientes.
El problema reside en que sólo se dispone de (a · b · K) observaciones para estimar
(a · b ·K + 1) parámetros.
Las posibles soluciones son:
1. Prescindir de alguna interacción, es decir, simplificar el modelo.
2. Replicar el experimento aunque, a veces, no es posible obtener tantas observaciones.
3. Construir un diseño de cuadrados latinos.
Podemos aplicar un diseño de cuadrados latinos cuando:
— Hay tres factores
— El número de niveles es el mismo para cada factor, es decir a = b = k
— No se esperan interacciones entre los factores
El diseño por cuadrados latinos trata de sacar el máximo de información con el mínimo
de observaciones. La idea es que cada nivel del factor aparezca una vez con cada uno de los
niveles de las otras variables. Además, han de cumplirse las condiciones de normalidad,
homocedasticidad, independencia y falta de interacción.
9
Diseño y construcción de un cuadrado latino
Se parte de un factor y dos variables bloque, de modo que el número de niveles del
factor y el de las variables bloque sea igual.
A cada combinación de los niveles de los bloques se le asigna un solo nivel del factor,
de modo que cada uno de estos niveles aparece una y sólo una vez en cada fila y en cada
columna. De este modo,
(i) Se toma un cuadrado latino al azar de una tabla, o se genera por medio de un
programa.
(ii) Se toman tres permutaciones al azar de los números 1, 2, . . . , I
(iii) Con la primera permutación se aleatorizan las columnas, con la segunda las filas y
con la tercera los tratamientos.
Ejemplo.
Se realiza un experimento para comparar 4 procesos de fabricación. Se supone que
influye tanto el momento del día como el día de la semana en que se realiza. Entonces, se
consideran las siguientes variables.
1. Cada día se divide en 4 periodos distintos de 6 horas cada uno (de 0—6, de 6—12, de
12—18, 18—24).
2. Los día que se consideran son L, M, X y J.
3. Como factor se toma el proceso de fabricación con cuatro niveles: P1, P2, P3 y P4.
Elegimos al azar un cuadrado latino
A B C DB C D AC D A BD A B C
10
De las 4! = 24 posibles permutaciones, se eligen las siguientes:
(1, 3, 4, 2)
(3, 2, 1, 4)
(4, 3, 2, 1)
asignando, entonces,
col.1 Lcol.2 Xcol.3 Jcol.4 M
fila 1 12—18fila 2 6—12fila 3 0—6fila 4 18—24
Letra A P4Letra B P3Letra C P2Letra D P1
Queda el siguiente cuadrado latino
L X J M12—18 P4 P3 P2 P16—12 P3 P2 P1 P40—6 P2 P1 P4 P318—24 P1 P4 P3 P2
que, reordenando, queda como
L M X J0—6 P2 P3 P1 P46—12 P3 P4 P2 P112—18 P4 P1 P3 P218—24 P1 P2 P4 P3
Las ventaja que presenta el diseño latino es que permite estudiar el efecto de un factor
y dos variables bloque con I niveles cada uno de ellos y con I2 unidades experimentales,
en lugar de I3 unidades experimentales. Aunque se impone siempre la limitación de que
todos ellos tengan siempre el mismo número de niveles.
11
Modelo
Este modelo sería:
yij(k) = μ+ αi + βj + γk + εij(k)
para i = 1, . . . , I, j = 1, . . . , I y k = 1, . . . , I; de modo que k viene fijado con el par (i, j),
donde:
— μ el efecto medio global.
— αi el efecto incremental sobre la media causado por el nivel i de la variable α (efecto
fila).
— βj el efecto incremental sobre la media causado por el nivel j de la variable β (efecto
columna).
— γk el efecto incremental sobre la media causado por el nivel k del factor γ (efecto
letra).
— εij(k) el término de error, siendo εij(k) ∼ N(0, σ2) independientes.
Supondremos además que:
IXi=1
αi =IX
j=1
βj =IX
k=1
γk = 0
Así, las observaciones serían, por ejemplo para tres niveles:
I II III
1y11(1)A
y12(2)B
y13(3)C
2y21(3)C
y22(1)A
y23(2)B
3y31(2)B
y32(3)C
y33(1)A
12
El índice i indica el nivel de la variable α (la fila), el índice j indica el nivel de la
variable β (la columna) y el índice k indica el nivel del factor γ (la letra), que aparece
entre paréntesis porque para cada par (i, j) sólo hay un k posible.
Se denota por D el conjunto de índices que aparecen en el cuadrado latino (i, j, k).
En el ejemplo de los procesos de fabricación, el cuadrado latino está formado por 16
elementos, así,
D = {(1, 1, 2) (1, 2, 3) (1, 3, 1) (1, 4, 4) (2, 1, 3) (2, 2, 4) (2, 3, 2) (2, 4, 1) (3, 1, 4) (3, 2, 1)
(3, 3, 3) (3, 4, 2) (4, 1, 1) (4, 2, 2) (4, 3, 4) (4, 4, 3)}.
Se pueden definir, también, los siguientes conjuntos:
Para i fijo: D(i) ={(j, k), (i, j, k) ∈ D}Para j fijo: D(j) ={(i, k), (i, j, k) ∈ D}Para k fijo: D(k) ={(i, j), (i, j, k) ∈ D}
En el ejemplo:
D(i=1) ={(1, 2) (2, 3) (3, 1) (4, 4)}
D(j=3) ={(1, 1) (2, 2) (3, 3) (4, 4)}
D(k=2) ={(1, 1) (2, 3) (3, 4) (4, 2)}
El número de elementos de estos conjuntos es 4.
Estimación de los parámetros
Para estimar los parámetros del modelo, hay que minimizar la siguiente función
mınΦ = mınμ,αi,βj ,γk
X(i,j,k)∈D
¡yijk − μ− αi − βj − γk
¢2sujeto a X
D(i)
αi =XD(j)
βj =XD(k)
γk = 0
13
Derivando respecto de los parámetros e igualando a 0 se obtienen los siguientes esti-
madores:
μ = y··· =1
I2
X(i,j,k)∈D
yij(k)
αi = yi·· − y··· =1
I
X(j,k)∈D(i)
yij(k) − y···
βj = y·j· − y··· =1
I
X(i,k)∈D(j)
yij(k) − y···
γk = y··k − y··· =1
I
X(i,j)∈D(k)
yij(k) − y···
Por otro lado, como el número de parámetros a estimar es
(I − 1) + (I − 1) + (I − 1) + 1 = 3I − 2,
el número de grados de libertad de la varianza es
I2 − 3I + 2 = (I − 1) (I − 2)
con lo cual necesitamos que I ≥ 3 :
σ2 =1
(I − 1)(I − 2)X
(i,j,k)∈D
¡yij(k) − yij(k)
¢2=
=1
(I − 1)(I − 2)X
(i,j,k)∈D
¡yij(k) − yi·· − y·j· − y··k + 2y···
¢2Análisis de la varianza
Se utilizará el siguiente contraste de hipótesis:½H0 : γ1 = · · · = γI = 0 (el factor γ no influye)H1 : algún γi 6= 0 (el factor γ influye)
Para contrastar esta hipótesis, descomponemos la suma de cuadrados total en la si-
guiente suma de cuadrados:
SCT =X
(i,j,k)∈D
(yij(k) − y···)2 =
X(i,j,k)∈D
y2ij(k) − I2y2··· =
= SCα + SCβ + SCγ + SCE
14
donde
SCα = IX
(j,k)∈D(i)
(yi·· − y···)2 = I
X(j,k)∈D(i)
y2i·· − I2y2··· ≡
“Suma de cuadrados explicada debido a la variable α”
SCβ = IX
(i,k)∈D(j)
(y·j· − y···)2 = I
X(i,k)∈D(j)
y2·j· − I2y2··· ≡
“Suma de cuadrados explicada debido a la variable β”
SCγ = IX
(i,j)∈D(k)
(y··k − y···)2 = I
X(i,j)∈D(k)
y2··k − I2y2··· ≡
“Suma de cuadrados explicada debido al factor γ”
SCE =X
(i,j,k)∈D
(yij(k) − yi·· − y·j· − y··k + 2y···)2 = (I − 1)(I − 2)σ2 ≡
“Suma de cuadrados residual”
La tabla de análisis de la varianza es:
F. V. S. C. G. L. M. C. FFactor α SCα I − 1 MCα =
SCαI−1
Factor β SCβ I − 1 MCβ =SCβI−1
Factor γ SCγ I − 1 MCγ =SCγI−1 Fγ =
MCγMCE
Residual SCE (I − 1)(I − 2) MCE = SCE(I−1)(I−2)
Total SCT I2 − 1
Entonces, se rechaza H0 : γ1 = · · · = γI = 0 al nivel α cuando
Fγ > FI−1,(I−1)(I−2);α
Ejemplo. Supongamos que un experimentador está estudiando el efecto de cinco fórmulas
diferentes de la mezcla de dinamita sobre la fuerza explosiva observada. Cada fórmula se
15
prepara usando un lote de materia prima, lo suficientemente grande para que sólo se hagan
cinco mezclas. Mas aún, las mezclas las preparan cinco operarios, pudiendo existir una
diferencia sustancial en la habilidad y experiencia entre ellos. El diseño apropiado para
este problema consiste en probar cada fórmula exactamente una vez, utilizando cada lote
de materia prima, y en que cada fórmula sea preparada exactamente una vez por cada
uno de los cinco operarios.
El diseño resultante es un cuadrado latino. Las cinco fórmulas se representan mediante
las letras latinas A, B, C, D y E. Los datos aparecen a continuación:
Materia 1 2 3 4 5
1A24
B20
C19
D24
E24
2B17
C24
D30
E27
A36
3C18
D38
E26
A27
B21
4D26
E31
A26
B23
C22
5E22
A30
B20
C29
D31
Para simplificar los datos se resta 25 unidades y se obtiene:
Materia 1 2 3 4 5 yi··
1A-1
B-5
C-6
D-1
E-1
-2.8
2B-8
C-1
D5
E2
A11
1.8
3C-7
D13
E1
A2
B-4
1
4D1
E6
A1
B-2
C-3
0.6
5E-3
A5
B-5
C4
D6
1.4
y·j· -3.6 3.6 -0.8 1 1.8 0.4
Las medias sobre el factor γ son:
16
letra latina y··kA y··1 = (−1 + 11 + 2 + 1 + 5)/5 = 18/5 = 3,6B y··2 = (−5− 8− 4− 2− 5)/5 = −24/5 = −4,8C y··3 = (−6− 1− 7− 3 + 4)/5 = −13/5 = −2,6D y··4 = (−1 + 5 + 13 + 1 + 6)/5 = 24/5 = 4,8E y··5 = (−1 + 2 + 1 + 6− 3)/5 = 5/5 = 1
Las sumas de cuadrados son:
SCT =IX
i=1
IXj=1
y2ij(k) − ny2··· = 680− 25× 0,42 = 676
SCα = IIX
i=1
y2i·· − ny2··· = 5((−2,8)2 + 1,82 + 12 + 0,62 + 1,42)− 25× 0,42 = 68
SCβ = IJX
j=1
y2·j· − ny2··· = 5((−3,6)2 + 3,62 + (−0,8)2 + 12 + 1,82)− 25× 0,42 = 150
SCγ = IIX
k=1
y2··k − ny2··· = 5(3,62 + (−4,8)2 + (−2,6)2 + 4,82 + 12)− 25× 0,42 = 330
SCE = SCT − SCα − SCβ − SCγ = 676− 68− 150− 330 = 128
La tabla ANOVA es:
F.V. S.C. G.L. M.C. FMaterial (A) 68 4 17Operario (B) 150 4 37.5Fórmula (C) 330 4 82.5 7.73
Error 128 12 10.67Total 676 24
Como
F4,12;0,1 = 2,48,
existen diferencias significativas en la fuerza explosiva media debido a las cinco fórmulas.
17
Cuadrados greco—latinos
Se puede considerar una extensión del diseño de cuadrados latinos que permite estudiar
un factor y 3 variables bloque con sólo I2 observaciones (siempre que el factor y las
variables bloque tengan todos I niveles).
Se considera un cuadrado latino de dimensión (I × I) y se superpone sobre él otro
cuadrado con los tratamientos denotados por letras griegas.
Se dice que son ortogonales cuando cada letra griega aparece combinada con una letra
latina una y sólo una vez en cada fila y columna.
Por ejemplo,
— Cuadrado latino 1:A B C DD C B AB A D CC D A B
— Cuadrado latino 2:α β γ δγ δ α βδ γ β αβ α δ γ
con lo que el cuadrado greco—latino queda como
Aα Bβ Cγ DδDγ Cδ Bα AβBδ Aγ Dβ CαCβ Dα Aδ Bγ
Se pueden construir cuadrados greco—latinos en diseños completamente cruzados para
I > 3, salvo para I = 6, porque en este caso sólo existe un cuadrado latino.
El modelo es
yij(kh) = μ+ αi + βj + γk + δh + εij(kh)
dondeIX
i=1
αi =IX
j=1
βj =IX
k=1
γk =IX
h=1
δh = 0.
18
Se obtiene una tabla ANOVA semejante al modelo de cuadrados latinos, considerando
también el término δh. Los grados de libertad de la SCE son igual a (I − 1)(I − 3). El
contraste de la F es el mismo que en el caso de los cuadrados latinos.
19
Aplicación con R # Diseño por bloques # Cargamos datos de la libreria de Faraday library(faraway) data(penicillin); attach(penicillin) penicillin # Se muestra el numero de replicas replications(yield ~ blend + treat,penicillin) par(pty="s") par(mfrow=c(2,2)) plot.design(yield ~ blend + treat) plot.design(yield ~ blend + treat, fun=median) plot(yield ~ blend + treat) interaction.plot(treat,blend,yield,type="l",col=1:3) modelo <- aov(yield ~ blend + treat) summary(modelo) par(pty="s") par(mfrow=c(2,2)) plot(modelo) # medias de tratamientos model.tables(modelo,"mean") #........................................................................... # Cuadrado latino # Cargamos datos de la libreria de Faraday library(faraway) data(breaking); attach(breaking) breaking # Se muestra el numero de replicas replications(y ~ operator + day + supplier, breaking) matrix(supplier,4,4) par(pty="s") par(mfrow=c(2,2)) plot.design(y ~ operator + day + supplier, breaking) plot(y ~ operator + day + supplier, breaking) replications(y ~ operator + day + supplier) modelo <- aov(y ~ operator + day + supplier, breaking) summary(modelo) # medias de tratamientos model.tables(modelo,"mean") # Estimacion de los efectos modelo$coef # o bien coef <- lm(y ~ operator + day + supplier, breaking) summary(coef)
20
Aplicación con SAS options ls=70 nodate nonumber; title 'ANOVA bloques aleatorizados completos'; data ano; input bloque trata $ medida; cards; 1 1 21 1 2 26 1 3 16 1 4 28 2 1 36 2 2 38 2 3 25 2 4 35 3 1 25 3 2 27 3 3 22 3 4 27 4 1 18 4 2 17 4 3 18 4 4 20 5 1 22 5 2 26 5 3 21 5 4 24 proc anova; class bloque trata; model medida=bloque trata; means trata /duncan tukey; means trata; run; ANOVA bloques aleatorizados completos The ANOVA Procedure Class Level Information Class Levels Values bloque 5 1 2 3 4 5 trata 4 1 2 3 4 Number of observations 20 Dependent Variable: medida Sum of Source DF Squares Mean Square F Value Model 7 637.6000000 91.0857143 12.53 Error 12 87.2000000 7.2666667 Corrected Total 19 724.8000000
21
Source Pr > F Model 0.0001 Error Corrected Total R-Square Coeff Var Root MSE medida Mean 0.879691 10.95803 2.695676 24.60000 Source DF Anova SS Mean Square F Value bloque 4 500.8000000 125.2000000 17.23 trata 3 136.8000000 45.6000000 6.28 Source Pr > F bloque <.0001 trata 0.0083 Duncan's Multiple Range Test for medida NOTE: This test controls the Type I comparisonwise error rate, not the experimentwise error rate. Alpha 0.05 Error Degrees of Freedom 12 Error Mean Square 7.266667 Number of Means 2 3 4 Critical Range 3.715 3.888 3.993 Means with the same letter are not significantly different. Duncan Grouping Mean N trata A 26.800 5 2 A A 26.800 5 4 A A 24.400 5 1 B 20.400 5 3
22
Tukey's Studentized Range (HSD) Test for medida NOTE: This test controls the Type I experimentwise error rate, but it generally has a higher Type II error rate than REGWQ. Alpha 0.05 Error Degrees of Freedom 12 Error Mean Square 7.266667 Critical Value of Studentized Range 4.19852 Minimum Significant Difference 5.0615 Means with the same letter are not significantly different. Tukey Grouping Mean N trata A 26.800 5 2 A A 26.800 5 4 A B A 24.400 5 1 B B 20.400 5 3 Level of ------------medida----------- trata N Mean Std Dev 1 5 24.4000000 6.94982014 2 5 26.8000000 7.46324326 3 5 20.4000000 3.50713558 4 5 26.8000000 5.54075807
23
options ls=70 nodate nonumber; title 'ANOVA cuadrados latinos'; data ano; input bloque1 bloque2 trata $ medida; cards; 1 1 B 810 1 2 C 1100 1 3 D 840 1 4 A 650 2 1 C 1080 2 2 D 880 2 3 A 540 2 4 B 740 3 1 A 700 3 2 B 780 3 3 C 1055 3 4 D 1025 4 1 D 910 4 2 A 600 4 3 B 830 4 4 C 900 proc anova; class bloque1 bloque2 trata; model medida=bloque1 bloque2 trata; means trata /duncan tukey; means trata; run; ANOVA cuadrados latinos The ANOVA Procedure Class Level Information Class Levels Values bloque1 4 1 2 3 4 bloque2 4 1 2 3 4 trata 4 A B C D Number of observations 16 Dependent Variable: medida Sum of Source DF Squares Mean Square F Value Model 9 396400.0000 44044.4444 7.09 Error 6 37250.0000 6208.3333 Corrected Total 15 433650.0000
24
Source Pr > F Model 0.0135 Error Corrected Total R-Square Coeff Var Root MSE medida Mean 0.914101 9.380116 78.79298 840.0000 Source DF Anova SS Mean Square F Value bloque1 3 17600.0000 5866.6667 0.94 bloque2 3 7662.5000 2554.1667 0.41 trata 3 371137.5000 123712.5000 19.93 Source Pr > F bloque1 0.4759 bloque2 0.7510 trata 0.0016 Duncan's Multiple Range Test for medida NOTE: This test controls the Type I comparisonwise error rate, not the experimentwise error rate. Alpha 0.05 Error Degrees of Freedom 6 Error Mean Square 6208.333 Number of Means 2 3 4 Critical Range 136.3 141.3 143.8 Means with the same letter are not significantly different. Duncan Grouping Mean N trata A 1033.75 4 C A B A 913.75 4 D B B 790.00 4 B C 622.50 4 A
25
Tukey's Studentized Range (HSD) Test for medida NOTE: This test controls the Type I experimentwise error rate, but it generally has a higher Type II error rate than REGWQ. Alpha 0.05 Error Degrees of Freedom 6 Error Mean Square 6208.333 Critical Value of Studentized Range 4.89559 Minimum Significant Difference 192.87 Means with the same letter are not significantly different. Tukey Grouping Mean N trata A 1033.75 4 C A B A 913.75 4 D B B C 790.00 4 B C C 622.50 4 A Level of ------------medida----------- trata N Mean Std Dev A 4 622.50000 68.4957420 B 4 790.00000 39.1578004 C 4 1033.75000 91.0471490 D 4 913.75000 79.5167697
26
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
5. Diseño Factorial 2K
EL DISEÑO 22
EL DISEÑO 23
EL DISEÑO GENERAL 2k
UNA SOLA RÉPLICA EN EL DISEÑO 2K
ADICIÓN DE PUNTOS CENTRALES AL DISEÑO 2K
ALGORITMO DE YATES PARA EL DISEÑO 2K
Modelo de diseños factoriales ydiseños 2k
Introducción
En el tema anterior se analizaron la posible influencia de un factor sobre la variable
respuesta, aleatorizando las observaciones para eliminar el efecto de otros factores. En
este capítulo analizaremos modelos en los cuales dos o más factores pueden influir en la
variable respuesta. Se emplea la siguiente metodología:
1. Identificar los factores que pueden influir en la variable respuesta y proponer un
modelo
2. Realizar el experimento, tomando las observaciones necesarias
3. Estimar los parámetros del modelo
4. Contrastar si los factores influyen en la respuesta
5. Si los factores influyen en la respuesta, detectar dónde radican las diferencias
6. Si algún factor no influye, simplificar el modelo y repetir los pasos anteriores
7. Realizar la diagnosis del modelo mediante el análisis de los residuos
Un diseño factorial es aquél en el que se investigan todas las posibles combinaciones
de los niveles de los factores en cada ensayo completo. En este caso se dicen que están
cruzados, apareciendo el concepto de interacción.
1
Se supone la existencia de repeticiones del experimento en cada una de las posibles
combinaciones de los niveles del factor correspondiente.
Concepto de interacción
Para ilustrar de forma intuitiva lo que es la interacción vamos a tomar dos conjuntos
de datos. Consideramos dos factores: α (niveles α1 y α2) y β (niveles β1 y β2).
Primer caso: dos factores sin interacción. Los datos son:
α\β β1 β2α1 10 20α2 30 40
El efecto principal del factor α es la diferencia entre la respuesta promedio de α1 y
α2 :
Eα =10 + 20
2− 30 + 40
2= −20
y el efecto principal del factor β es:
Eβ =10 + 30
2− 20 + 40
2= −10
Ahora bien, para el nivel β1, el efecto del factor α es:
Eα|β1 = 10− 30 = −20
y para el nivel β2 es:
Eα|β2 = 20− 40 = −20
De forma similar, los efectos del factor β para los niveles α1 y α2 son, respectivamente:
Eβ|α1 = 10− 20 = −10
2
Eβ|α2 = 30− 40 = −10
Entonces, el efecto de uno de los factores no depende de los niveles del otro factor, lo
cual indica que no hay interacción entre los factores. Cuando ambos factores tienen dos
niveles, el efecto de la interacción es la diferencia entre los promedios de las diagonales,
que es en este caso:
Eαβ =10 + 40
2− 30 + 20
2= 0
lo que indica que no hay interacción. Los siguientes gráficos de perfil muestran la falta de
interacción ya que las rectas que aparecen son paralelas.
factor a
Res
pues
ta
factor bb1b2
10
15
20
25
30
35
40
a1 a2
3
factor b
Res
pues
ta
factor aa1a2
10
15
20
25
30
35
40
b1 b2
Segundo caso: dos factores con interacción. Los datos son:
α\β β1 β2α1 10 20α2 30 0
El efecto principal del factor α es
Eα =10 + 20
2− 30 + 0
2= 0
lo que indicaría que el factor α no tendría ningún efecto en la respuesta. Sin embargo,
para el nivel β1, el efecto del factor α es:
Eα|β1 = 10− 30 = −20
y para el nivel β2 es:
Eα|β2 = 20− 0 = 20
Entonces, aunque el efecto principal indique que el factor α no influye en la respuesta,
el efecto que produce α depende del nivel seleccionado del factor β y se concluye que hay
interacción entre α y β.
4
El efecto de la interacción es en este caso:
Eαβ =10 + 0
2− 30 + 20
2= −20
lo que indica que hay interacción. Los siguientes gráficos de perfil muestran la existencia
de interacción ya que las rectas que aparecen se cruzan entre sí.
factor b
Res
pues
ta
factor aa1a2
0
5
10
15
20
25
30
b1 b2
factor a
Res
pues
ta
factor bb1b2
0
5
10
15
20
25
30
a1 a2
En este caso, la variable respuesta Y puede depender también de dos factores α y β,
pero éstos a su vez pueden potenciarse o interactuar.
5
Para comprobar la existencia de interacción, se puede considerar el gráfico de residuos
frente a valores previstos de un modelo sin interacción. La idea de este resultado es que
los residuos contendrán la influencia de todos aquellos efectos no considerados de forma
explícita en el modelo. Por lo tanto, si la interacción es significativa y no ha sido incluida,
su efecto se verá en los residuos. La forma de ver la interacción en los residuos es a través
de cierta curvatura en la nube de puntos del gráfico de residuos frente a valores previstos.
El motivo es que la interacción implica una relación no lineal entre los factores y la variable
respuesta; por tanto si hay interacción y el modelo no la incluye, los residuos tendrán una
estructura no lineal no incluida en el modelo.
Diseño bifactorial con replicaciones
Se consideran dos factores A y B con a y b niveles respectivamente. Se tienen a · bcombinaciones o posibles tratamientos y n observaciones para cada tratamiento, esto es,
un diseño balanceado.
El modelo es
yijk = µ+ αi + βj + (αβ)ij + εijk
para i = 1, . . . , a j = 1, . . . , b, k = 1, . . . , n donde:
— µ es el efecto medio global.
— αi es el efecto incremental sobre la media causado por el nivel i del factor A.
— βj el efecto incremental sobre la media causado por el nivel j del factor B.
— (αβ)ij el efecto incremental sobre la media causado por la interacción del nivel i del
factor A y el nivel j del factor B.
— εijk el término de error
6
Supondremos además que:
aXi=1
αi =bX
j=1
βj =aXi=1
(αβ)ij =bX
j=1
(αβ)ij = 0
Se obtiene una tabla con esta forma
A1 · · · Aa
B1 y11k · · · y1ak...
.... . .
...Bb yb1k · · · ybak
donde k = 1, . . . , n.
Estimación de los parámetros
Se calcula
mınµ,αi,βj ,(αβ)ij
φ = mınaXi=1
bXj=1
nXk=1
³yijk − µ− αi − βj − (αβ)ij
´2sujeto a
aXi=1
αi =bX
j=1
βj =aXi=1
(αβ)ij =bX
j=1
(αβ)ij = 0
Se tiene
∂φ
∂µ= −2
aXi=1
bXj=1
nXk=1
³yijk − µ− αi − βj − (αβ)ij
´= 0 =⇒
aXi=1
bXj=1
nXk=1
yijk − abnµ = 0 =⇒
µ =1
abn
aXi=1
bXj=1
nXk=1
yijk = y···
Para i fijado
∂φ
∂αi= −2
bXj=1
nXk=1
³yijk − µ− αi − βj − (αβ)ij
´= 0 =⇒
bXj=1
nXk=1
yijk − bnµ− bnαi = 0 =⇒
αi =1
bn
bXj=1
nXk=1
yijk − y··· =⇒
αi = yi·· − y···
7
Análogamente, para j fijado,
βj = y·j· − y···
Para (i, j) fijado, se deriva respecto de (αβ)ij
∂φ
∂ (αβ)ij= −2
nXk=1
³yijk − µ− αi − βj − (αβ)ij
´= 0 =⇒
nXk=1
yijk − ny··· − n (yi·· − y···)− n (y·j· − y···)− n³cαβ´
ij= 0 =⇒³cαβ´
ij= yij· − yi·· − y·j· + y···
Así
yijk = y··· + (yi·· − y···) + (y·j· − y···) + (yij· − yi·· − y·j· + y···) = yij·
es decir,
yijk = yij·
El número de parámetros a estimar en total es
1 + (a− 1) + (b− 1) + (a− 1)(b− 1)
ya que la suma de las estimas de las interacciones por filas es igual a 0, con lo cual hay
(b−1) términos. Del mismo modo sucede para las columnas, y se obtienen (a−1) términos.En total hay (a− 1)(b− 1) términos.Como el número total de observaciones es N = abn, entonces el número de grados de
libertad es
abn− 1− (a− 1)− (b− 1)− (a− 1)(b− 1) = abn− ab = ab(n− 1).
De este modo, como
SCE =aXi=1
bXj=1
nXk=1
(yijk − yijk)2 =
aXi=1
bXj=1
nXk=1
(yijk − yij·)2
entonces la estima de la varianza total es
σ2 =1
ab(n− 1)aXi=1
bXj=1
nXk=1
(yijk − yij·)2
8
Descomposición de la varianza
La técnica de análisis de la varianza se utilizará en los siguientes contrastes de hipótesis:½H0 : α1 = · · · = αa = 0 (el factor A no influye)H1 : algún αi 6= 0 (el factor A influye)½H0 : β1 = · · · = βb = 0 (el factor B no influye)H1 : algún βi 6= 0 (el factor B influye)½H0 : (αβ)11 = · · · = (αβ)ab = 0 (no hay interacción)H1 : algún (αβ)ij 6= 0 (hay interacción)
Para contrastar estas hipótesis, descomponemos la suma de cuadrados total en la
siguiente suma de cuadrados:
SCT =aXi=1
bXj=1
nXk=1
(yijk − y···)2 =aXi=1
bXj=1
nXk=1
y2ijk −N · y2··· =
=aXi=1
bXj=1
nXk=1
y2ijk −1
abny2··· =
= SCA + SCB + SCAB + SCE
donde N = abn y
SCA = bnaXi=1
(yi·· − y···)2 = bnaXi=1
y2i·· −N · y2··· =
=1
bn
aXi=1
y2i·· −1
abny2···
≡ “Suma de cuadrados explicada debido al factor A”
SCB = anbX
j=1
(y·j· − y···)2 = anbX
j=1
y2·j· −N · y2··· =
=1
an
bXj=1
y2·j· −1
abny2···
≡ “Suma de cuadrados explicada debido al factor B”
9
SCAB = naXi=1
bXj=1
(yij· − yi·· − y·j· + y···)2 =
= naXi=1
bXj=1
[(yij· − y···)− (yi·· − y···)− (y·j· − y···)]2 =
= naXi=1
bXj=1
y2ij· −N · y2··· − SCA − SCB =
1
n
aXi=1
bXj=1
y2ij· −1
bn
aXi=1
y2i·· −1
an
bXj=1
y2·j· +1
abny2···
≡ “Suma de cuadrados explicada debido a la interacción”
SCE =aXi=1
bXj=1
nXk=1
(yijk − yij·)2 = ab(n− 1)σ2
≡ “Suma de cuadrados residual”
La tabla de análisis de la varianza es:
F. V. S. C. G. L. M. C. FFactor A SCA a− 1 MCA =
SCAa−1 FA =
MCAMCE
Factor B SCB b− 1 MCB =SCBb−1 FB =
MCBMCE
Interacción SCAB (a− 1)(b− 1) MCAB =SCAB
(a−1)(b−1) FAB =MCABMCE
Residual SCE ab(n− 1) MCE =SCE
ab(n−1)Total SCT abn− 1
Entonces:
1. Rechazamos H0 : α1 = · · · = αa = 0 al nivel α cuando
FA > Fa−1,ab(n−1);α
2. Rechazamos H0 : β1 = · · · = βb = 0 al nivel α cuando
FB > Fb−1,ab(n−1);α
10
3. Rechazamos H0 : (αβ)11 = · · · = (αβ)ab = 0 al nivel α cuando
FAB > F(a−1)(b−1),ab(n−1);α
Observación: Siempre trataremos de buscar el modelo más sencillo que explique bien la
variable respuesta. Por ejemplo, si aceptamos H0 : (αβ)11 = · · · = (αβ)ab = 0, concluimosque la interacción no influye de manera apreciable en la respuesta, y pasaríamos a consid-
erar un modelo con dos factores sin interacción y calcularíamos de nuevo la tabla ANOVA.
Si además, aceptamos que uno de los factores no influye en la respuesta, lo eliminaríamos
del modelo y trabajaríamos con un modelo de un factor.
Ejemplo. Se aplican pinturas tapaporos para aeronaves en superficies de aluminio, con
dos métodos: inmersión y rociado. La finalidad del tapaporos es mejorar la adhesión de
la pintura, y puede aplicarse en algunas partes utilizando cualquier método. El grupo de
ingeniería de procesos responsable de esta operación está interesado en saber si existen
diferencias entre tres tapaporos diferentes en cuanto a sus propiedades de adhesión.
Para investigar el efecto que tienen el tipo de pintura tapaporos y el método de apli-
cación sobre la adhesión de la pintura, se realiza un diseño factorial. Para ello, se pintan
tres muestras con cada tapaporo utilizando cada método de aplicación, después se aplica
una capa final de pintura y a continuación se mide la fuerza de adhesión. Los datos son
los siguientes:
Tapaporos Inmersión Rociado1 4 4.5 4.3 5.4 4.9 5.62 5.6 4.9 5.4 5.8 6.1 6.33 3.8 3.7 4 5.5 5 5
Entonces, a = 3, b = 2, n = 3, N = 18.
Las medias de las observaciones son:
11
Tapaporos Inmersión Rociado yi··1 y11· = 4,267 y12· = 5,3 28,7/6 = 4,7832 y21· = 5,3 y22· = 6,067 34,1/6 = 5,6833 y31· = 3,833 y32· = 5,167 27/6 = 4,5y·j· 40,2/9 = 4,467 49,6/9 = 5,511 y··· = 89,8/18 = 4,989
Las sumas de cuadrados son:
SCT =aXi=1
bXj=1
nXk=1
(yijk − y···)2 =aXi=1
bXj=1
nXk=1
y2ijk −N · y2··· = 42 + 4,52 + · · ·+ 52 + 52 −
18× 4,9892 = 10,72
SCA = bnaXi=1
y2i·· −N · y2··· = 6(4,7832 + 5,6832 + 4,52)− 18× 4,9892 = 4,58
SCB = anbX
j=1
y2·j· −N · y2··· = 9(4,4672 + 5,5112)− 18× 4,9892 = 4,91
SCAB = naXi=1
bXj=1
y2ij· −N · y2··· − SCA − SCB = 3(4,2672 + 5,32 + 5,32 + 6,0672 +
3,8332 + 5,1672)− 18× 4,9892 − 4,58− 4,91 = 0,24
SCE = SCT − SCA − SCB − SCAB = 10,72− 4,58− 4,91− 0,24 = 0,99
La tabla ANOVA es:
F.V. S.C. G.L. M.C. FTapaporo (A) 4.58 2 2.29 27.7576Método (B) 4.91 1 4.91 59.5152Interacción 0.24 2 0.12 1.4545Error 0.99 12 0.0825Total 10.72 17
12
F2,12;0,05 = 3,8853
F1,12;0,05 = 4,7472
Por tanto, no hay evidencia de la existencia de interacción entre los factores. Los
efectos del tipo de tapaporos y del método de aplicación empleado afectan a la fuerza
de adhesión. En este caso, debemos simplificar el modelo, considerando un modelo sin
interacción (juntando las sumas de cuadrados de la interacción a las del error), donde la
tabla ANOVA sería:
F.V. S.C. G.L. M.C. FTapaporo (A) 4.58 2 2.29 26.082Método (B) 4.91 1 4.91 55.9225
Error 0.99+0.24=1.23 12+2=14 0.0878Total 10.72 17
F2,14;0,05 = 3,7389
F1,14;0,05 = 4,6001
Concluimos que los efectos del tipo de tapaporos y del método de aplicación empleado
afectan a la fuerza de adhesión.
Si las medias de los tratamientos son diferentes entre sí se pueden considerar los tests
de comparaciones múltiples y de rangos estudentizados, que se vieron para el modelo
unifactorial general. Se ha de reemplazar el número de réplicas por nivel del factor (n),
por el correspondiente número de elementos de cada casilla. A su vez, los grados de libertad
del error (N − a) han de cambiarse en el caso general por ab(n− 1).Utilizaremos el método de Bonferroni para observar diferencias entre el nivel medio
de los tres tipos de tapaporos. Como a = 3, realizaremos m =¡32
¢= 3 comparaciones. Si
utilizamos αT = 0,06, entonces α =0,063= 0,02.
13
tab(n−1);α/2 · σr1
bn+1
bn= t14;0,01
p0,0878
r1
6+1
6=
= 2,624p0,0878
r1
3= 0,4489.
Las diferencias de medias en valor absoluto son:
y2·· = 5,683 y3·· = 4,5y1·· = 4,783 0.9 0.283y2·· = 5,683 — 1.183
En negrita aparece el caso en el cual no rechazamos la hipótesis de igualdad de medias.
Por tanto, concluimos que el tapaporos 2 es el más eficaz y los tapaporos 1 y 3 son iguales
en cuanto a eficacia.
Ejemplo. Supongamos que un ingeniero diseña una batería para su uso en un dispositivo
que será sometido a ciertas variaciones extremas de temperatura. El único parámetro de
diseño que se puede seleccionar es el material de la cubierta de la batería, y tiene tres
alternativas. Cuando el dispositivo se manufactura y se envía al campo, el ingeniero no
tiene control sobre los extremos de temperatura a que será expuesto el dispositivo, y sabe
por experiencia que es probable que la temperatura influya en la duración efectiva de la
batería. Sin embargo, sí es posible controlar la temperatura en el laboratorio de desarrollo
de productos para los fines del ensayo.
El ingeniero decide probar los tres materiales de la cubierta a tres niveles de temper-
atura (15, 70 y 125o F) consistentes en el entorno de uso final del producto. Se prueban
cuatro baterías con cada combinación de material de la cubierta y temperatura, y las 36
pruebas se ejecutan al azar. Los datos son los siguientes:
Material 15o F 70o F 125o F
1130 15574 180
34 4080 75
20 7082 58
2150 188159 126
136 122106 115
25 7058 45
3138 110168 160
174 120150 139
96 10482 60
14
En este ejemplo a = 3, b = 3, n = 4, N = 36. Las medias de las observaciones son:
Material 15o F 70 F 125o F yi··1 134.75 57.25 57.5 83.172 155.75 119.75 49.5 108.333 144 145.75 85.5 125.083y·j· 144.83 107.583 64.17 y···=105.53
Las sumas de cuadrados son:
SCT =aPi=1
bPj=1
nPk=1
(yijk − y···)2 = (130− 105,53)2 + (155− 105,53)2 + · · ·+(82− 105,53)2 + (60− 105,53)2 = 77646,972
SCA = bnPa
i=1 y2i·· −N · y2··· = 12(83,172 + 108,332 + 125,0832)−−36× 105,532 = 10683,722
SCB = anPb
j=1 y2·j· −N · y2··· = 12(144,832 + 107,5832 + 192,52)−−36× 105,532 = 39118,722
SCAB = nPa
i=1
Pbj=1 y
2ij· −N · y2··· − SCA − SCB = 4(134,75
2 + 57,252 + · · ·+107,5832 + 192,52)− 36× 105,532 − 10633,167− 39083,167 = 9613,778
SCE = SCT − SCA − SCB − SCAB = 18230,75
La tabla ANOVA es:
F.V. S.C. G.L. M.C. FMaterial (A) 10683,722 2 5341.861 7,91
Temperatura (B) 39118,722 2 19559.361 28.97Interacción 9613,778 4 2403.444 3.56Error 18230,75 27 675.213Total 77646,972 35
F2,27;0,05 = 3,3541
F4,27;0,05 = 2,7278
Por tanto, existe una interacción significativa entre los factores. Los efectos del tipo
de material y de la temperatura son significativos.
Utilizaremos el método de Bonferroni para detectar diferencias en el nivel medio de los
tres tipos de material. Como la interacción es significativa, las comparaciones se realizan
en un sólo nivel de temperatura. Vamos a tomar, por ejemplo, el nivel 2 (70o F).
15
Como I = 3, realizaremos m =¡32
¢= 3 comparaciones. Si utilizamos αT = 0,06,
entonces α = 0,063= 0,02.
tab(n−1);α/2 · σq
1n+ 1
n= t27;0,01
√665,954
q14+ 1
4= 2,473
√665,954
q12= 45,126.
Las diferencias de medias en valor absoluto son:
y22· = 119,75 y32· = 145,75y12· = 57,25 62.5 88.5y22· = 119,75 26
En negrita aparece el caso en el cual no rechazamos la hipótesis de igualdad de medias.
Concluimos que para el nivel de temperatura 70o F, el voltaje medio producido por los
materiales 2 y 3 es el mismo y el producido por el 1 es significativamente menor.
Estudio de las medias individuales
Si se rechaza la igualdad entre los efectos del factor A ó B se pueden considerar tests
de recorrido studentizado (para el factor correspondiente), pero no son recomendables
cuando aparece interacción significativa. Se puede hacer fijando un nivel concreto de uno
de los factores.
Si se rechaza la igualdad entre las interacciones, se pueden contrastar las medias que
aparecen yij· en todos los posibles tratamientos.
Diseño bifactorial sin replicaciones
Se puede considerar un diseño en el que se presentas dos factores y sólo se realiza una
observación por cada tratamiento.
El modelo es
yij = µ+ αi + βj + (αβ)ij + εij
para i = 1, . . . , a j = 1, . . . , b, donde:
— µ es el efecto medio global.
— αi es el efecto incremental sobre la media causado por el nivel i del factor A.
16
— βj el efecto incremental sobre la media causado por el nivel j del factor B.
— (αβ)ij el efecto incremental sobre la media causado por la interacción del nivel i del
factor A y el nivel j del factor B.
— εij el término de error
Supondremos además que:
aXi=1
αi =bX
j=1
βj =aXi=1
(αβ)ij =bX
j=1
(αβ)ij = 0
Se obtiene una tabla con esta forma
A1 · · · Aa
B1 y11 · · · y1a...
.... . .
...Bb yb1 · · · yba
En este caso, el número de parámetros a estimar es igual que en el caso del diseño
bifactorial replicado:
1 + (a− 1) + (b− 1) + (a− 1)(b− 1) = ab
y como el número de observaciones es ab, entonces no hay grados de libertad suficientes
para estimar σ2 =MCE
ab− ab.
Una posible solución es considerar que la interacción es nula
(αβ)ij = 0
donde i = 1, . . . , a j = 1, . . . , b, obteniéndose la siguiente tabla ANOVA
F. V. S. C. G. L. F
Factor A SCA =1b
Pai=1 y
2i· − 1
aby2·· a− 1 FA =
SCAa−1SCE
(a−1)(b−1)
Factor B SCB =1a
Pbj=1 y
2·j − 1
aby2·· b− 1 FB =
SCBa−1SCE
(a−1)(b−1)Error SCE = SCT − SCA− SCB (a− 1)(b− 1)Total SCT =
aPi=1
bPj=1
y2ij − 1aby2·· ab− 1
17
Se observa que al suponer interacción nula, el efecto de la interacción y el error exper-
imental se juntan.
Otra alternativa es suponer que el efecto de la interacción es de la forma
(αβ)ij = kαiβj
donde k es una constante desconocida que se determina mediante Regresión.
Se descompone la SCE en dos componentes:
(i) Una componente para la interacción con 1 grado de libertad, de modo que la suma
de cuadrados correspondiente es
SCN =1
a · b · SCA · SCB
"aXi=1
bXj=1
yijyi·y·j − y··
µSCA + SCB +
y2··ab
¶#2
(ii) Una componente para el error
SCE∗ = SCE − SCN
con (a− 1)(b− 1)− 1 grados de libertad
Se determina
F0 =SCN
SCE∗(a−1)(b−1)−1
Si F0 > F1,(a−1)(b−1)−1,α la hipótesis nula de no interacción se rechaza.
Modelo de efectos aleatorios
Supongamos que los a niveles del factor A y los b niveles del factor B son una muestra
aleatoria de poblaciones de niveles. De este modo, la inferencia se puede extender a todos
los posibles niveles mediante el cálculo sobre la muestra anterior.
El modelo es
yijk = µ+ αi + βj + (αβ)ij + εijk
18
para i = 1, . . . , a j = 1, . . . , b, k = 1, . . . , n donde los parámetros del modelo son variables
aleatorias independientes entre sí, tales que
αi ∼ N (0, σα)
βj ∼ N (0, σβ)
(αβ)ij ∼ N (0, σαβ)
εijk ∼ N (0, σ)
De este modo la varianza de cada observación es
V ar (yijk) = σ2α + σ2β + σ2αβ + σ2
que son los componentes de la varianza.
Se puede demostrar que
E(MCA) = E
µSCA
a− 1¶= σ2 + nσ2αβ + bnσ2α
E(MCB) = E
µSCB
b− 1¶= σ2 + nσ2αβ + anσ2β
E(MCAB) = E
µSCAB
(a− 1)(b− 1)¶= σ2 + nσ2αβ
E(MCE) = E
µSCE
ab(n− 1)¶= σ2
Utilizando las expresiones anteriores, igualando las medias de cuadrados, se obtiene
σ2 = MCE
σ2αβ =MCAB −MCE
n
σ2α =MCA −MCAB
bn
σ2β =MCB −MCAB
an
19
Las hipótesis que se tienen que contrastar son
H0 ≡ σ2α = 0H1 ≡ σ2α > 0
H0 ≡ σ2β = 0H1 ≡ σ2β > 0
H0 ≡ σ2αβ = 0H1 ≡ σ2αβ > 0
Las sumas de cuadrados se calculan igual que en el modelo de efectos fijos, pero al
calcular las medias de cuadrados esperadas, se observa que para contrastar H0 ≡ σ2αβ = 0
el estadístico de contraste que ha de usarse es
F0 =MCAB
MCE
porque si H0 es verdadera tanto el numerador como el denominador de F0 tienen como
valor esperado σ2 y si es falsa entonces,
F0 > F(a−1)(b−1),ab(n−1),α
rechazándose H0 a nivel α.
Para contrastar H0 ≡ σ2α = 0 se usa el contraste
F0 =MCA
MCAB
porque si H0 es verdadera tanto el numerador como el denominador de F0 tienen como
valor esperado σ2 + nσ2αβ y si es falsa entonces,
F0 > F(a−1),(a−1)(b−1),α
rechazándose H0 a nivel α.
De modo similar, para contrastar H0 ≡ σ2β = 0 se usa el contraste
F0 =MCB
MCAB
20
porque si H0 es verdadera tanto el numerador como el denominador de F0 tienen como
valor esperado σ2 + nσ2αβ y si es falsa entonces,
F0 > F(b−1),(a−1)(b−1),α
rechazándose H0 a nivel α.
Se observa que el método para contrastar efectos no es el mismo en el caso de que los
factores A y B sean fijos.
En cualquier caso, los valores esperados de las medias de cuadrados se deben usar
siempre como guía para construir los contrastes.
Ejemplo. En el proceso de fabricación de una pieza de un vehículo se puede elegir un
gran número posible de materiales y también un gran número posible de temperaturas a
las que puede estar sometida la pieza.
Como diseño del experimento se seleccionan 3 posibles tipos de material al azar y tres
posibles temperaturas. Se obtiene la siguiente tabla de tiempos de duración:
Material -10o C 15o C 32o C
1130 15574 180
34 4080 75
20 7082 58
2150 188159 126
136 122106 115
25 7058 45
3138 110168 160
174 120150 139
96 10482 60
Las sumas de cuadrados son:
SCT =aXi=1
bXj=1
nXk=1
y2ijk −1
abny2··· = (130
2 + 1552 + · · ·+ 602)− 37992
36= 77646,972
SCA =1
bn
aXi=1
y2i·· −1
abny2··· =
1
12(9982 + 13002 + 15012)− 3799
2
36= 10683,722
SCB =1
an
bXj=1
y2·j· −1
abny2··· =
1
12(17382 + 12912 + 7702)− 3799
2
36= 39118,722
SCAB =1n
aPi=1
bPj=1
y2ij· − 1abn
y2··· − SCA − SCB =14(5392 + 2292 + · · ·+ 3422)−
−3799236− 10633,17− 39083,17 = 9613,778
SCE = SCT − SCA − SCB − SCAB = 18230,75
21
Se obtiene la siguiente tabla ANOVA
F.V. S.C. G.L. M.C. FMaterial (A) 10683.722 2 5341.861 5341,861
2403,444= 2,223
Temperatura (B) 39118.722 2 19559.361 19559,3612403,444
= 8,138
Interacción 9613.778 4 2403.444 2403,444675,213
= 3,560
Error 18230.75 27 675.213Total 77646.972 35
Como
F(a−1)(b−1),ab(n−1),α = F4,27,0005 = 2,73.
la interacción entre A y B resulta significativamente distinta de 0: σ2αβ > 0
Por otro lado, como
F(a−1),(a−1)(b−1),α = F(b−1),(a−1)(b−1),α = F2,4,0005 = 6,94.
El efecto del factor A no resulta significativo: se acepta que σ2α = 0
El efecto de B sí resulta significativamente distinto de 0: σ2β > 0.
Los componentes de la varianza estimados son
σ2 = MCE = 675,213
σ2αβ =MCAB −MCE
n=2403,444− 675,213
4= 432,06
σ2α =MCA −MCAB
bn=5341,861− 2403,444
3 · 4 = 244,87
σ2β =MCB −MCAB
an=19559,361− 2403,444
3 · 4 = 1429,7
Modelo bifactorial mixto
Se puede considerar un modelo de efectos mixtos en el que uno de los factores es fijo
y el otro aleatorio:
yijk = µ+ αi + βj + (αβ)ij + εijk
22
donde αi (para i = 1, . . . , a ) corresponde al efecto fijo del factorA, de modo quePa
i=1 αi =
0 y el resto de los parámetros del modelo son variables aleatorias independientes entre sí,
tales que
βj ∼ N (0, σβ)
(αβ)ij ∼ N (0, σαβ)
εijk ∼ N (0, σ)
para i = 1, . . . , a j = 1, . . . , b, k = 1, . . . , n
Se puede demostrar que
E
µSCA
a− 1¶= σ2 + nσ2αβ + bn
Pai=1 α
2i
a− 1E
µSCB
b− 1¶= σ2 + nσ2αβ + anσ2β
E
µSCAB
(a− 1)(b− 1)¶= σ2 + nσ2αβ
E
µSCE
ab(n− 1)¶= σ2
Así, para contrastar
H0 ≡ αi = 0, (i = 1, . . . , a)H1 ≡ αi 6= 0 =⇒ F0 =
MCA
MCAB
H0 ≡ σ2β = 0H1 ≡ σ2β > 0
=⇒ F0 =MCB
MCAB
H0 ≡ σ2αβ = 0H1 ≡ σ2αβ > 0
=⇒ F0 =MCAB
MCE
23
y las estimas de efectos y los componentes de la varianza son
µ = y···
αi = yi·· − y··· (i = 1, . . . , a)
σ2β =MCB −MCAB
an
σ2αβ =MCAB −MCE
n
σ2 = MCE
Diseños factoriales 2k
En diseños industriales es frecuente considerar dos niveles para cada uno de los factores
que pueden intervenir en el diseño experimental. Un diseño con k factores que tienen dos
niveles requiere un número de replicaciones igual a 2k observaciones. En este tipo de
modelos se asume que los efectos son fijos y la aleatorización completa y se consideran las
mismas restricciones que en el caso de los diseños factoriales típicos.
El diseño 22
Se consideran dos factores A y B con dos niveles:
bajo: 0
alto: 1
Los niveles altos de los factores se representan mediante las letras a y b respectivamente
y los niveles bajos se representan por la ausencia de dichas letras. Si ambos niveles son
bajos se considera un valor igual a (1).
(0, 0) =⇒ (1)(1, 0) =⇒ a(0, 1) =⇒ b(1, 1) =⇒ ab
24
(1), a, b y ab son las respuestas para las n réplicas. Los efectos medios de A y B son
A =1
2n(ab+ a− b− (1))
B =1
2n(ab+ b− a− (1))
Estos valores se obtienen considerando que, por ejemplo, el efecto de A se obtiene como
la diferencia entre el nivel alto del factor menos el nivel bajo (en cada caso en relación a
los niveles del otro factor): El efecto of A en el nivel bajo de B es (a− (1))/n y el efectoof A en el nivel alto de B es (ab− b)/n.
Así, el efecto medio de A es
A =ab+ a
2n− b+ (1)
2n=1
2n(ab+ a− b− (1))
El efecto de la interacción AB se define como la diferencia media entre el efecto de A
al nivel alto de B, y el efecto de A al nivel bajo de B :
AB =1
2n[(ab− b)− (a− (1))] =
1
2n[ab+ (1)− a− b] .
Del mismo modo se puede definir BA, obteniéndose que AB = BA.
En general, se trata de medir la importancia y el efecto de los factores que intervienen,
en términos de la magnitud y del signo de los efectos anteriores.
La sumas de cuadrados se pueden definir en términos, también, de las estimas anteri-
ores:
Suma de Cuadrados del Factor =1
nPa
i=1 c2i
"aXi=1
ciyi·
#2.
Así, en este caso,
SCA =[ab+ a− b− (1)]2
4n,
SCB =[ab+ b− a− (1)]2
4n,
SCAB =[ab+ (1)− a− b]2
4n,
25
La suma de cuadrados total es, como habitualmente,
SCT =2X
i=1
2Xj=1
nXk=1
y2ijk −y2···4n
y tiene (2 · 2 · n)− 1 grados de libertad.La suma de cuadrados del error es
SCE = SCT − SCA− SCB − SCAB.
y SCE tiene 4(n− 1) grados de libertad.La tabla de análisis de la varianza es, entonces,
F. V. S. C. G. L. M. C. FFactor A SCA 1 FA =
SCAMCE
Factor B SCB 1 FB =SCBMCE
Interacción SCAB 1 FAB =SCABMCE
Residual SCE 4(n− 1) MCE =SCE4(n−1)
Total SCT 4n− 1
Ejemplo
Se trata de estudiar la influencia de los factores:
Temperatura (1: alta ó 0: baja) y
Catalizador (1: se usa ó 0: no se usa)
en la variable respuesta: dureza de un material cerámico. Los datos son:
ReplicaciónCombinación 1 2 Respuesta total Codificación
(0, 0) 86 92 178 (1)(0, 1) 47 39 86 a(1, 0) 104 114 218 b(1, 1) 141 153 294 ab
y··· = 776
Los efectos medios y las medias de cuadrados son
A =294 + 86− 218− 178
4= −4
B =294 + 218− 86− 178
4= 62
AB =294 + 178− 86− 218
4= 42.
26
SCA =(4A)2
4 · 2 = 32
SCB =(4B)2
4 · 2 = 7688
SCAB =(4AB)2
4 · 2 = 3528
SCT = (862 + · · ·+ 1532)− 7762
8= 11420
SCE = 172.
La tabla de análisis de la varianza es
F. V. S. C. G. L. M. C. FFactor A 32 1 32 FA = 0,74Factor B 7688 1 7688 FB = 178,79Interacción 3528 1 3528 FAB = 82,05Residual 172 4 43Total 11420 7
De modo que el factor B y la interacción entre A y B son significativos al nivel 0,05, ya
que F1,4;0005 = 7,71.
El diseño 23
Se introduce un breve resumen de este modelo. Supongamos que se tienen tres factores
binarios A, B y C. El número de posibles combinaciones es 8, y con n replicaciones se
tiene un total de 8n observaciones.
Para calcular los efectos se puede usar la siguiente tabla o matriz de diseño:
Efecto Combinación de FactoresFactorial (1) a b ab c ac bc abc
I + + + + + + + +A — + — + — + — +B — — + + — — + +AB + — — + + — — +C — — — — + + + +AC + — + — — + — +BC + + — — — — + +ABC — + + - + — — +
27
La primera fila es la identidad y cualquier fila multiplicada por ella permanece invari-
ante. El resto de filas tiene el mismo número de signos + y signos −. Se pueden obtenerlos contrastes y los efectos sustituyendo los signos + por 1 y los − por −1, como se ve acontinuación.
Por otro lado se pueden obtener las distintas filas a partir del producto entre ellas,
por ejemplo:
A ·B = AB,
(AB) · (B) = A ·B2 = A,
(AC) · (BC) = A · C2 ·B = AB
Estimación de los efectos:
Los efectos medios se calculan a partir de los contrastes indicados en la tabla anterior
partidos entre 4n:
A =1
4n[a− (1) + ab− b+ ac− c+ abc− bc]
B =1
4n[b+ ab+ bc+ abc− (1)− a− c− ac]
C =1
4n[c+ ac+ bc+ abc− (1)− a− b− ab]
AB =1
4n[(1) + ab+ c+ abc− a− b− ac− bc]
AC =1
4n[(1) + b+ ac+ abc− a− ab− c− bc]
BC =1
4n[(1) + a+ bc+ abc− b− ab− c− ac]
ABC =1
4n[abc+ a+ b+ c− ab− ac− bc− (1)]
Las sumas de los cuadrados son, en cada caso, de manera semejante al diseño 22,
SCEfec =Contraste2
8n
Ejemplo
Supongamos la siguiente tabla con n = 2 réplicas
28
Factor B0 1
Factor A Factor C Factor C0 1 0 1
0 4 7 20 105 9 14 6
1 4 2 4 1411 7 6 16
Se tiene que
(1) = 9 c = 16 b = 34 bc = 16a = 15 ac = 9 ab = 10 abc = 30
A =1
8[15− 9 + 10− 34 + 9− 16 + 30− 16] = −11
8= −1,375
B =1
8[34 + 10 + 16 + 30− (9 + 15 + 16 + 9)] = 41
8= 5,125
C =1
8[16 + 9 + 16 + 30− (9 + 15 + 34 + 10)] = 3
8= 0,375
AB =1
8[9 + 10 + 16 + 30− (15 + 34 + 9 + 16)] = −9
8= −1,125
AC =1
8[9 + 34 + 9 + 30− (15 + 10 + 16 + 16)] = 25
8= 3,125
BC =1
8[9 + 15 + 16 + 30− (34 + 10 + 16 + 9)] = 1
8= 0,125
ABC =1
8[30 + 15 + 34 + 16− (10 + 9 + 16 + 9)] = 51
8= 6,375
Como, en cada caso,
SCEfec =Contraste2
8n
29
se tiene que
SCA =1
16112 = 7,56
SCB =1
16412 = 105,06
SCC =1
1632 = 0,56
SCAB =1
1692 = 5,06
SCAC =1
16252 = 39,06
SCBC =1
1612 = 0,06
SCABC =1
16512 = 162,56
y
SCT = (42 + 52 + · · ·+ 142 + 162)− 1
161392 = 389,44
SCE = 69,52
La tabla de análisis de la varianza es
F. V. S. C. G. L. M. C. FFactor A 7,56 1 7,56 0,87Factor B 105,06 1 105,06 12,09∗
Interacción AB 5,06 1 5,06 0,58Factor C 0,56 1 0,56 0,06Interacción AC 39,06 1 39,06 4,49Interacción BC 0,06 1 0,06 0,01Interacción ABC 162,56 1 162,56 18,71∗
Residual 69,52 8 8,62Total 389,44 15
Como el valor de la F de Snedecor F1,8,0,05 = 5,32, entonces los valores marcados con
∗ son significativos a nivel 0,05.
30
Aplicación con R Se puede usar la librería Rcmdr de R: library(Rcmdr) Commander() Datos <- read.table("C:/CursoCIII/Disenno/Practicas06/dat2Fac.txt", header=TRUE, sep="", na.strings="NA", dec=".", strip.white=TRUE) Datos$Mat <- as.factor(Datos$Mat) Datos$Temp <- factor(Datos$Temp, labels=c('-10','15','32')) Anova(lm(Resist ~ Mat*Temp, data=Datos)) tapply(Datos$Resist, list(Mat=Datos$Mat, Temp=Datos$Temp), mean, na.rm=TRUE) # means tapply(Datos$Resist, list(Mat=Datos$Mat, Temp=Datos$Temp), sd, na.rm=TRUE) # std. deviations tapply(Datos$Resist, list(Mat=Datos$Mat, Temp=Datos$Temp), function(x) sum(!is.na(x))) # counts plotMeans(Datos$Resist, Datos$Mat, Datos$Temp, error.bars="none") #............................................................................... cosa <- read.table("C:/... /dat2Fac.txt", header=TRUE) attach(cosa) Mat <- as.factor(Mat) Temp <- as.factor(Temp) par(pty="s") par(mfrow=c(2,2)) plot.design(Resist ~ Mat*Temp) plot.design(Resist ~ Mat*Temp, fun=median) plot(Resist ~ Mat*Temp) modelo <- aov(Resist ~ Mat*Temp) summary(modelo) par(pty="s") par(mfrow=c(2,2)) plot(modelo) interaction.plot(Mat,Temp,Resist,type="l",xlab="Material",trace.label="temperatura",col=1:3) # Modelo de efectos aleatorios summary(aov(Resist ~ Mat+Temp + Error(Mat:Temp))) summary(aov(Resist ~ Mat:Temp + Error(Mat+Temp)))
31
Aplicación con SAS options ps=66 ls=80 nodate; title 'ANOVA bifactorial de efectos fijos'; data ano; input catilaz presion precip; datalines; 1 1 11 1 1 2 1 1 9 1 2 8 1 2 10 1 2 10 1 3 12 1 3 10 1 3 13 1 4 9 1 4 11 1 4 10 2 1 13 2 1 11 2 1 14 2 2 14 2 2 10 2 2 10 2 3 8 2 3 12 2 3 10 2 4 9 2 4 9 2 4 8 3 1 9 3 1 9 3 1 9 3 2 10 3 2 8 3 2 11 3 3 11 3 3 11 3 3 9 3 4 7 3 4 11 3 4 6 ; proc glm; class catilaz presion; model precip=catilaz presion catilaz*presion; run; quit; proc means noprint; var precip; by catilaz presion; output out=outmean mean=mn; run; quit; symbol i=join; proc gplot; plot mn*presion=catilaz;
32
run; quit; /* ------------------------------------------------------- */ proc glm; class catilaz presion; model precip=catilaz presion catilaz*presion; lsmeans catilaz | presion /tdiff adjust=tukey; run; quit; /* ------------------------------------------------------- */ proc glm; class catilaz presion; model precip=catilaz presion catilaz*presion; output out=diag r=res p=pred; run; quit; symbol v=circle; proc univariate noprint; qqplot res / normal (l=1 mu=0 sigma=est); hist res / normal (l=1 mu=0 sigma=est); run; quit; proc gplot; plot res*catilaz; plot res*presion; plot res*pred; run; quit;
33
Dependent Variable: precip Sum of Source DF Squares Mean Square F Value Pr > F Model 11 77.6666667 7.0606061 1.71 0.1325 Error 24 99.3333333 4.1388889 Corrected Total 35 177.0000000 R-Square Coeff Var Root MSE precip Mean 0.438795 20.68908 2.034426 9.833333 Source DF Type I SS Mean Square F Value Pr > F catilaz 2 13.16666667 6.58333333 1.59 0.2245 presion 3 15.22222222 5.07407407 1.23 0.3219 catilaz*presion 6 49.27777778 8.21296296 1.98 0.1078 Source DF Type III SS Mean Square F Value Pr > F catilaz 2 13.16666667 6.58333333 1.59 0.2245 presion 3 15.22222222 5.07407407 1.23 0.3219 catilaz*presion 6 49.27777778 8.21296296 1.98 0.1078 The GLM Procedure Least Squares Means Adjustment for Multiple Comparisons: Tukey precip LSMEAN catilaz LSMEAN Number 1 9.5833333 1 2 10.6666667 2 3 9.2500000 3 Least Squares Means for Effect catilaz t for H0: LSMean(i)=LSMean(j) / Pr > |t| Dependent Variable: precip i/j 1 2 3 1 -1.30436 0.40134 0.4065 0.9154 2 1.304355 1.705695 0.4065 0.2237 3 -0.40134 -1.7057 0.9154 0.2237
34
Least Squares Means Adjustment for Multiple Comparisons: Tukey precip LSMEAN presion LSMEAN Number 1 9.6666667 1 2 10.1111111 2 3 10.6666667 3 4 8.8888889 4 Least Squares Means for Effect presion t for H0: LSMean(i)=LSMean(j) / Pr > |t| Dependent Variable: precip i/j 1 2 3 4 1 -0.46343 -1.04271 0.810998 0.9663 0.7265 0.8486 2 0.463428 -0.57928 1.274426 0.9663 0.9373 0.5874 3 1.042712 0.579284 1.85371 0.7265 0.9373 0.2741 4 -0.811 -1.27443 -1.85371 0.8486 0.5874 0.2741 Least Squares Means Adjustment for Multiple Comparisons: Tukey precip LSMEAN catilaz presion LSMEAN Number 1 1 7.3333333 1 1 2 9.3333333 2 1 3 11.6666667 3 1 4 10.0000000 4 2 1 12.6666667 5 2 2 11.3333333 6 2 3 10.0000000 7 2 4 8.6666667 8 3 1 9.0000000 9 3 2 9.6666667 10 3 3 10.3333333 11 3 4 8.0000000 12
35
Least Squares Means for Effect catilaz*presion t for H0: LSMean(i)=LSMean(j) / Pr > |t| Dependent Variable: precip i/j 1 2 3 4 5 6 1 -1.20402 -2.60871 -1.60536 -3.21072 -2.40804 0.9834 0.3277 0.8908 0.1131 0.4372 2 1.20402 -1.40469 -0.40134 -2.0067 -1.20402 0.9834 0.9514 1.0000 0.6852 0.9834 3 2.60871 1.40469 1.00335 -0.60201 0.20067 0.3277 0.9514 0.9961 1.0000 1.0000 4 1.60536 0.40134 -1.00335 -1.60536 -0.80268 0.8908 1.0000 0.9961 0.8908 0.9995 5 3.21072 2.0067 0.60201 1.60536 0.80268 0.1131 0.6852 1.0000 0.8908 0.9995 6 2.40804 1.20402 -0.20067 0.80268 -0.80268 0.4372 0.9834 1.0000 0.9995 0.9995 Least Squares Means for Effect catilaz*presion t for H0: LSMean(i)=LSMean(j) / Pr > |t| Dependent Variable: precip i/j 7 8 9 10 11 12 1 -1.60536 -0.80268 -1.00335 -1.40469 -1.80603 -0.40134 0.8908 0.9995 0.9961 0.9514 0.7999 1.0000 2 -0.40134 0.40134 0.20067 -0.20067 -0.60201 0.80268 1.0000 1.0000 1.0000 1.0000 1.0000 0.9995 3 1.00335 1.80603 1.60536 1.20402 0.80268 2.20737 0.9961 0.7999 0.8908 0.9834 0.9995 0.5598 4 0 0.80268 0.60201 0.20067 -0.20067 1.20402 1.0000 0.9995 1.0000 1.0000 1.0000 0.9834 5 1.60536 2.40804 2.20737 1.80603 1.40469 2.80938 0.8908 0.4372 0.5598 0.7999 0.9514 0.2368 6 0.80268 1.60536 1.40469 1.00335 0.60201 2.0067 0.9995 0.8908 0.9514 0.9961 1.0000 0.6852
36
Least Squares Means Adjustment for Multiple Comparisons: Tukey Least Squares Means for Effect catilaz*presion t for H0: LSMean(i)=LSMean(j) / Pr > |t| Dependent Variable: precip i/j 1 2 3 4 5 6 7 1.60536 0.40134 -1.00335 0 -1.60536 -0.80268 0.8908 1.0000 0.9961 1.0000 0.8908 0.9995 8 0.80268 -0.40134 -1.80603 -0.80268 -2.40804 -1.60536 0.9995 1.0000 0.7999 0.9995 0.4372 0.8908 9 1.00335 -0.20067 -1.60536 -0.60201 -2.20737 -1.40469 0.9961 1.0000 0.8908 1.0000 0.5598 0.9514 10 1.40469 0.20067 -1.20402 -0.20067 -1.80603 -1.00335 0.9514 1.0000 0.9834 1.0000 0.7999 0.9961 11 1.80603 0.60201 -0.80268 0.20067 -1.40469 -0.60201 0.7999 1.0000 0.9995 1.0000 0.9514 1.0000 12 0.40134 -0.80268 -2.20737 -1.20402 -2.80938 -2.0067 1.0000 0.9995 0.5598 0.9834 0.2368 0.6852 Least Squares Means for Effect catilaz*presion t for H0: LSMean(i)=LSMean(j) / Pr > |t| Dependent Variable: precip i/j 7 8 9 10 11 12 7 0.80268 0.60201 0.20067 -0.20067 1.20402 0.9995 1.0000 1.0000 1.0000 0.9834 8 -0.80268 -0.20067 -0.60201 -1.00335 0.40134 0.9995 1.0000 1.0000 0.9961 1.0000 9 -0.60201 0.20067 -0.40134 -0.80268 0.60201 1.0000 1.0000 1.0000 0.9995 1.0000 10 -0.20067 0.60201 0.40134 -0.40134 1.00335 1.0000 1.0000 1.0000 1.0000 0.9961 11 0.20067 1.00335 0.80268 0.40134 1.40469 1.0000 0.9961 0.9995 1.0000 0.9514 12 -1.20402 -0.40134 -0.60201 -1.00335 -1.40469 0.9834 1.0000 1.0000 0.9961 0.9514
37
The UNIVARIATE Procedure Fitted Distribution for res Parameters for Normal Distribution Parameter Symbol Estimate Mean Mu 0 Std Dev Sigma 1.661102 Goodness-of-Fit Tests for Normal Distribution Test ---Statistic---- -----p Value----- Cramer-von Mises W-Sq 0.07858188 Pr > W-Sq >0.250 Anderson-Darling A-Sq 0.51155988 Pr > A-Sq >0.250 Quantiles for Normal Distribution ------Quantile------ Percent Observed Estimated 1.0 -5.33333 -3.864301 5.0 -2.00000 -2.732269 10.0 -1.66667 -2.128788 25.0 -1.33333 -1.120396 50.0 0.16667 -0.000000 75.0 0.83333 1.120396 90.0 2.00000 2.128788 95.0 3.00000 2.732269 99.0 3.66667 3.864301
38
39
options ls=72 nodate nonumber; title 'ANOVA BIFACTORIAL DE EFECTOS ALEATORIOS'; data ano; input zona $ tienda ventas; cards; A 1 59 A 1 61 A 1 61 A 1 59 A 2 60 A 2 63 A 2 55 A 2 57 A 3 63 A 3 67 A 3 65 A 3 60 A 4 66 A 4 64 A 4 61 A 4 68 B 1 61 B 1 64 B 1 67 B 1 62 B 2 69 B 2 64 B 2 62 B 2 69 B 3 66 B 3 71 B 3 68 B 3 68 B 4 62 B 4 69 B 4 68 B 4 71 C 1 71 C 1 70 C 1 68 C 1 74 C 2 66 C 2 72 C 2 67 C 2 72 C 3 75 C 3 69 C 3 76 C 3 68 C 4 69 C 4 70 C 4 69 C 4 77 ; proc glm; class zona tienda ; model ventas= zona|tienda ; random zona tienda zona*tienda/test; run; proc varcomp method=type1; class zona tienda ;
40
model ventas= zona|tienda ; run; Dependent Variable: ventas Sum of Source DF Squares Mean Square F Value Model 11 817.062500 74.278409 7.53 Error 36 355.250000 9.868056 Corrected Total 47 1172.312500 Source Pr > F Model <.0001 Error Corrected Total R-Square Coeff Var Root MSE ventas Mean 0.696966 4.737186 3.141346 66.31250 Source DF Type I SS Mean Square F Value zona 2 648.0000000 324.0000000 32.83 tienda 3 123.7291667 41.2430556 4.18 zona*tienda 6 45.3333333 7.5555556 0.77 Source Pr > F zona <.0001 tienda 0.0123 zona*tienda 0.6017 Source DF Type III SS Mean Square F Value zona 2 648.0000000 324.0000000 32.83 tienda 3 123.7291667 41.2430556 4.18 zona*tienda 6 45.3333333 7.5555556 0.77 Source Pr > F zona <.0001 tienda 0.0123 zona*tienda 0.6017 Source Type III Expected Mean Square zona Var(Error) + 4 Var(zona*tienda) + 16 Var(zona) tienda Var(Error) + 4 Var(zona*tienda) + 12 Var(tienda) zona*tienda Var(Error) + 4 Var(zona*tienda)
41
Type 1 Estimates Variance Component Estimate Var(zona) 19.77778 Var(tienda) 2.80729 Var(zona*tienda) -0.57813 Var(Error) 9.86806
42
options ls=80 ps=66 nodate; data ano; input materi tempera durac; title 'ANOVA bifactorial efectos mixtos'; datalines; 1 1 130 1 1 155 1 1 74 1 1 180 1 2 34 1 2 40 1 2 80 1 2 75 1 3 20 1 3 70 1 3 82 1 3 58 2 1 150 2 1 188 2 1 159 2 1 126 2 2 136 2 2 122 2 2 106 2 2 115 2 3 25 2 3 70 2 3 58 2 3 45 3 1 138 3 1 110 3 1 168 3 1 160 3 2 174 3 2 120 3 2 150 3 2 139 3 3 96 3 3 104 3 3 82 3 3 60 ; proc mixed covtest; class materi tempera; model durac=materi; random tempera materi*tempera; run; quit;
43
ANOVA bifactorial efectos mixtos The Mixed Procedure Model Information Data Set WORK.ANO Dependent Variable durac Covariance Structure Variance Components Estimation Method REML Residual Variance Method Profile Fixed Effects SE Method Model-Based Degrees of Freedom Method Containment Class Level Information Class Levels Values materi 3 1 2 3 tempera 3 1 2 3 Dimensions Covariance Parameters 3 Columns in X 4 Columns in Z 12 Subjects 1 Max Obs Per Subject 36 Observations Used 36 Observations Not Used 0 Total Observations 36 Iteration History Iteration Evaluations -2 Res Log Like Criterion 0 1 352.41258855 1 1 327.91147422 0.00000000 Convergence criteria met. Covariance Parameter Estimates Standard Z Cov Parm Estimate Error Value Pr Z tempera 1429.66 1636.09 0.87 0.1911 materi*tempera 432.06 427.35 1.01 0.1560 Residual 675.21 183.77 3.67 0.0001
44
Fit Statistics -2 Res Log Likelihood 327.9 AIC (smaller is better) 333.9 AICC (smaller is better) 334.7 BIC (smaller is better) 331.2 Type 3 Tests of Fixed Effects Num Den Effect DF DF F Value Pr > F materi 2 4 2.22 0.2243
OTRA OPCION: options ls=76 nodate nonumber; title 'ANOVA bifactorial efectos mixtos'; data ano; input materi tempera durac; cards; 1 1 130 1 1 155 . . . 3 3 82 3 3 60 proc anova; class materi tempera; model durac=materi tempera materi|tempera ; test h=tempera e=materi*tempera; test h=materi e=materi*tempera; run; Sum of Source DF Squares Mean Square F Value Pr > F Model 8 59416.22222 7427.02778 11.00 <.0001 Error 27 18230.75000 675.21296 Corrected Total 35 77646.97222 R-Square Coeff Var Root MSE durac Mean 0.765210 24.62372 25.98486 105.5278 Source DF Anova SS Mean Square F Value Pr > F materi*tempera 4 9613.77778 2403.44444 3.56 0.0186 Tests of Hypotheses Using the Anova MS for materi*tempera as an Error Term Source DF Anova SS Mean Square F Value Pr > F tempera 2 39118.72222 19559.36111 8.14 0.0389 materi 2 10683.72222 5341.86111 2.22 0.2243
45
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
7.- Diseños Jerárquicos (o Anidados)
DISEÑO JERÁRQUICO EN DOS ETAPAS
SI LOS NIVELES DE LOS FACTORES A Y B SON FIJOS
SI A FACTOR FIJO Y B ALEATORIO:
SI A Y B FACTORES ALEATORIO
DISEÑOS JERÁRQUICOS TRES ETAPAS
DISEÑOS JERÁRQUICOS Y FACTORES CRUZADOS.
Modelo de diseños anidados ycruzado-anidados
Modelo de diseños anidados
En algunas situaciones no se pueden combinar todos los niveles de un factor con todos
los niveles de otro, es decir, no se pueden determinar todos los posibles tratamientos que
aparecen al cruzar los factores.
Ejemplo.
Supongamos que en un centro de formación profesional se estudia el porcentaje de
aprobados en una materia, en los grupos de mañana y de tarde. Por la mañana imparten
la asignatura dos personas y por la tarde tres. Cada persona da clase a tres grupos y se
supone que estos son réplicas (no son fuente de variación).
Así,
Factor A ≡ Turno (i = 1, 2)Factor B ≡ Persona (j = 1, . . . , 5)yij ≡ Porcentaje de aprobados
Mañana Tarde. ↓ & . &P1 P2 P3 P4 P5g1 g1 g1 g1 g1g2 g2 g2 g2 g2g3 g3 g3 g3 g3
Se dice que el factor B está anidado en el factor A, es decir B ⊂ A.
1
Modelo matemático
Se dice que un factor B está anidado en otro factor A (o que sus niveles están anidados
en los de A) cuando cada nivel del factor B aparece asociado a un único nivel del factor
A. Se denota como B ⊂ A.
A1 A2 · · · Aa
. ↓ & . ↓ & . ↓ &B1 B2 B3 B4 B5 B6 · · · Bm−2 Bm−1 Bm
obs. 1 obs. 1 obs. 1 obs. 1 obs. 1 obs. 1 · · · obs. 1 obs. 1 obs. 1obs. 2 obs. 2 obs. 2 obs. 2 obs. 2 obs. 2 · · · obs. 2 obs. 2 obs. 2obs. 3 obs. 3 obs. 3 obs. 3 obs. 3 obs. 3 · · · obs. 3 obs. 3 obs. 3
El modelo se expresa como
yijk = μ+ αi + βj(i) + εijk
donde
i = 1, . . . , aj = 1, . . . , bk = 1, . . . , n
y
para cada i,bX
j=1
βj(i) = 0
aXi=1
αi = 0
Se observa que βj(i) representa el efecto medio adicional del nivel j-ésimo anidado en
el nivel i.
Por otro lado, b es el número de niveles anidados en cada nivel i, de modo que el
número total de niveles de B es a · b y la suma de los efectos del factor B dentro de cada
nivel de A es 0.
2
Estimadores por mínimos cuadrados
Se tiene que
mınμ,αi,βj(i)
φ = mınμ,αi,βj(i)
aXi=1
bXj=1
nXk=1
¡yijk − μ− αi − βj(i)
¢2Así,
∂φ
∂μ= −2
aXi=1
bXj=1
nXk=1
¡yijk − μ− αi − βj(i)
¢= 0 =⇒
μ = y···
Para cada i fijado
∂φ
∂αi= −2
bXj=1
nXk=1
¡yijk − μ− αi − βj(i)
¢= 0 =⇒
bXj=1
nXk=1
yijk − bny··· − nbαi = 0 =⇒
αi = yi·· − y···
Para cada i fijado y j fijado
∂φ
∂βj(i)= −2
nXk=1
¡yijk − μ− αi − βj(i)
¢= 0 =⇒
nXk=1
yijk − ny··· − n (yi·· − y···)− nβj(i) = 0 =⇒
βj(i) = yij· − yi··
De este modo,
yijk = y··· + (yi·· − y···) + (yij· − yi··) = yij·
El número total de observaciones es a·b·n y el número total de parámetros a estimar es
1+(a−1)+a(b−1) = ab, luego el número de grados de libertad total es abn−ab = ab(n−1).
De este modo, la estima de la varianza es
σ2 =
Pai=1
Pbj=1
Pnk=1 (yijk − yij·)
2
ab(n− 1) .
3
Tabla ANOVA
Si se considera la suma de cuadrados total
SCT =aXi=1
bXj=1
nXk=1
(yijk − y···)2
sumando y restando los términos ±yi·· ±yij· se obtiene
aXi=1
bXj=1
nXk=1
(yijk − y···)2 =
aXi=1
bXj=1
nXk=1
(yi·· − y···)2 +
+aXi=1
bXj=1
nXk=1
(yij· − yi··)2 +
+aXi=1
bXj=1
nXk=1
(yijk − yij·)2
entonces
SCT = SCA+ SCB(A) + SCE
que puesto en términos de totales queda
A1 A2 A3B1 B2 B3 B4 B5 B5y111 y121 y211 y221 y311 y321...
......
......
...y11n y12n y21n y22n y31n y32n
yij· y11· y12· y21· y22· y31· y32·yi·· y1·· y2·· y3·· y···
SCT =aXi=1
bXj=1
nXk=1
y2ijk −1
abny2···
SCA =1
bn
aXi=1
y2i·· −1
abny2···
para cada nivel i fijado se tiene
SCB(A)i =1
n
bXj=1
y2ij· −1
bny2i··
4
y como SCB(A) =Pa
i=1 SCB(A)i, entonces
SCB(A) =1
n
aXi=1
bXj=1
y2ij· −1
bn
aXi=1
y2i··
SCE = SCT − SCA− SCB(A)
Los contrastes de hipótesis que se realizan son:½H0 : α1 = · · · = αa = 0 (el factor A no influye)H1 : algún αi 6= 0 (el factor A influye)
en este caso
F0 =SCAa−1SCE
ab(n−1)=
MCA
MCE
de modo que se rechaza H0 a nivel α si
F0 > F(a−1),ab(n−1),α
La otra hipótesis que se contrasta es, ∀i = 1, . . . , a½H0 : β1(i) = · · · = βb(i) = 0H1 : algún βj(i) 6= 0
en este caso,
F0 =
SCB(A)a(b−1)SCE
ab(n−1)=
MCB(A)
MCE
de modo que se rechaza H0 a nivel α si
F0 > Fa(b−1),ab(n−1),α
En este caso, se contrasta la hipótesis de que todos los niveles del factor anidado B
son iguales dentro del factor A donde están anidados.
Sin embargo, si se obtiene que son distintos a nivel global, es interesante contrastar, a
continuación, si los niveles del factor B anidado en A son iguales entre sí, dentro de cada
nivel i (de A) en el que están anidados.
Así, para cada nivel fijado de i, donde i = 1, . . . , a se contrasta si los niveles del factor
anidado son iguales o no dentro de cada uno de los niveles del factor A en el que están
anidados de manera individual
5
½H0 : β1(i) = · · · = βb(i) = 0H1 : algún βj(i) 6= 0
en este caso,
F0 =
SCB(A)ib−1SCE
ab(n−1)=
MCB(A)iMCE
de modo que se rechaza H0 a nivel α si
F0 > F(b−1),ab(n−1), α
La tabla ANOVA es
F. V. S. C. G. L. M. C. FFactor A SCA a− 1 MCA =
SCAa−1 FA =
MCAMCE
Factor B (B ⊂ A) SCB(A) a(b− 1) MCB(A) =SCB(A)a(b−1) FB(A) =
MCB(A)MCE
Residual SCE ab(n− 1) MCE =SCE
ab(n−1)Total SCT abn− 1
Si FB(A) =MCB(A)MCE
resulta ser significativo, entonces el contraste se puede descomponer
en i = 1, . . . , a contrastes individuales:
FB(A)i =MCB(A)i
MCE.
Ejemplo.
Un geólogo estudia el contenido en trazas radiactivas de cinco tipos diferentes de suelo.
Para ello recoge cuatro muestras de contenido en sustancias radiactivas en cuatro local-
idades diferentes que están situadas sobre cada tipo de suelo. Se obtienen los siguientes
datos:
A B C1 2 3 4 5 6 7 8 9 10 11 126 13 1 7 10 2 4 0 0 10 8 72 3 10 4 9 1 1 3 0 11 5 20 9 0 7 7 1 7 4 5 6 0 58 8 6 9 12 10 9 1 5 7 7 4
yij· 16 33 17 27 38 14 21 8 10 34 20 18yi·· 93 81 82y··· 402
6
D E13 14 15 16 17 18 19 2011 5 1 0 1 6 3 30 10 8 8 4 7 0 76 8 9 6 7 0 2 44 3 4 5 9 3 2 0
yij· 21 26 22 19 21 16 7 14yi·· 88 58y··· 402
SCT =aXi=1
bXj=1
nXk=1
y2ijk −1
abny2··· =
= (62 + 132 + · · ·+ 02)− 1
804022 = 969,95
SCA =1
bn
aXi=1
y2i·· −1
abny2··· =
=1
16(932 + · · ·+ 582)− 1
804022 = 45,75
SCB(A) =1
n
aXi=1
bXj=1
y2ij· −1
bn
aXi=1
y2i·· =
=1
4(162 + · · ·+ 142)− 1
16(932 + · · ·+ 582) = 282,875
SCE = SCT − SCA− SCB(A) = 642
La tabla ANOVA es
F. V. S. C. G. L. M. C. FFactor A terreno 45,75 a− 1 = 4 11,269 FA =
MCAMCE
= 1,053
Factor B(A) localidad 282,875 a(b− 1) = 15 18,858 FB(A) =MCB(A)MCE
= 1,762
Residual 642 ab(n− 1) = 60 10,7Total 969,95 abn− 1 = 79
Se obtiene que
F(a−1),ab(n−1),α = F4,60,001 = 2,04
7
por lo cual se acepta H0 : α1 = · · · = αa = 0
Así no existen diferencias significativas entre los terrenos a nivel α = 0,1.
Por otro lado,
Fa(b−1),ab(n−1),α = F15,60,001 = 1,6
luego se rechaza ∀i = 1, . . . , a la hipótesis H0 : β1(i) = · · · = βb(i) = 0 a nivel α = 0,1.
Estudiamos los contrastes individuales por nivel.
Se calcula para cada i
SCB(A)i =1
n
bXj=1
y2ij· −1
bny2i·· =
1
4
4Xj=1
y2ij· −1
16y2i··
De este modo,
i = 1 SCB(A)1 =14(162 + 332 + 172 + 272)− 1
16932 = 50,18
i = 2 SCB(A)2 =14(382 + 142 + 212 + 82)− 1
16832 = 126,18
i = 3 SCB(A)3 =14(102 + 342 + 202 + 182)− 1
16822 = 74,75
i = 4 SCB(A)4 =14(212 + 262 + 222 + 192)− 1
16882 = 6,5
i = 5 SCB(A)5 =14(212 + 162 + 72 + 142)− 1
16582 = 25,25
La tabla ANOVA queda como
F. V. S. C. G. L. M. C. FFactor A terreno 45,75 4 11,269 FA = 1,053Factor B(A) localidad 282,875 15 18,858 FB(A) = 1,762A(1) 50,18 3 16,726 FB(A)1 = 1,56B(2) 126,18 3 42,06 FB(A)2 = 3,93C(3) 74,75 3 24,92 FB(A)1 = 2,33D(4) 6,5 3 2,16 FB(A)1 = 0,202E(5) 25,25 3 8,41 FB(A)1 = 0,786Residual 642 60 10,7Total 969,95 79
Como
F3,60,001 = 2,18
existen diferencias significativas en los niveles B(2) y C(3), es decir, respecto a los terrenos
de tipo B y C las localidades tienen distinto nivel de sustancia radiactiva.
8
Modelos anidados de efectos aleatorios y efectos mix-tos
Modelo de efectos aleatorios
El modelo es
yijk = μ+ αi + βj(i) + εijk
siendo
i = 1, . . . , aj = 1, . . . , bk = 1, . . . , n
donde
αi ∼ N¡0, σ2α
¢para todo i,
βj(i) ∼ N¡0, σ2β
¢εijk ∼ N
¡0, σ2
¢donde todas las v.a. son independientes.
Así,
yijk ∼ N¡μ, σ2α + σ2β + σ2
¢son v.a. independientes.
Las esperanzas de los cuadrados medios son:⎧⎨⎩E(MCA) = σ2 + nσ2β + bnσ2αE(MCB(A)) = σ2 + nσ2βE(MCE) = σ2
Las estimas de los componentes de la varianza son:⎧⎪⎪⎪⎨⎪⎪⎪⎩σ2 =MCE
σ2β =MCB(A)−MCE
n
σ2α =MCA−MCB(A)
bn
Los contrastes de hipótesis son:
9
Si FA =MCA
MCB(A)> Fa−1,a(b−1);α se rechaza la hipótesis nula, H0 ≡ σ2α = 0
Si FB(A) =MCB(A)
MCE> Fa(b−1),ab(n−1);α se rechaza la hipótesis nula, H0 ≡ σ2β = 0
Modelo de efectos mixtos B ⊂ A, (A fijo, B aleatorio)
El modelo es
yijk = μ+ αi + βj(i) + εijk
siendo
i = 1, . . . , aj = 1, . . . , bk = 1, . . . , n
dondeaXi=1
αi = 0
para todo i,
βj(i) ∼ N¡0, σ2β
¢εijk ∼ N
¡0, σ2
¢donde todas las v.a. son independientes.
Así,
yijk ∼ N¡μ+ αi, σ
2β + σ2
¢son v.a. independientes.
Las esperanzas de los cuadrados medios son:⎧⎪⎪⎪⎨⎪⎪⎪⎩E(MCA) = σ2 + nσ2β +
bnXa
i=1α2i
a− 1E(MCB(A)) = σ2 + nσ2βE(MCE) = σ2
Las estimas de los componentes de la varianza son:⎧⎪⎨⎪⎩σ2 =MCE
σ2β =MCB(A)−MCE
nαi = yi·· − y···
10
Los contrastes de hipótesis son:
Si FA =MCA
MCB(A)> Fa−1,a(b−1);α se rechaza la hipótesis nula, H0 ≡ αi = 0, ∀i
Si FB(A) =MCB(A)
MCE> Fa(b−1),ab(n−1);α se rechaza la hipótesis nula, H0 ≡ σ2β = 0
Modelo de efectos mixtos B ⊂ A, (A aleatorio, B fijo)
El modelo es
yijk = μ+ αi + βj(i) + εijk
siendo
i = 1, . . . , aj = 1, . . . , bk = 1, . . . , n
donde
αi ∼ N¡0, σ2α
¢para todo i,
bXj=1
βj(i) = 0
εijk ∼ N¡0, σ2
¢donde todas las v.a. son independientes.
Así,
yijk ∼ N¡μ+ βj(i), σ
2α + σ2
¢son v.a. independientes.
Las esperanzas de los cuadrados medios son:⎧⎪⎪⎪⎨⎪⎪⎪⎩E(MCA) = σ2 + bnσ2α
E(MCB(A)) = σ2 +nXa
i=1
Xb
j=1β2j(i)
a(b− 1)E(MCE) = σ2
Las estimas de los componentes de la varianza son:
11
⎧⎪⎪⎨⎪⎪⎩σ2 =MCE
σ2α =MCA−MCE
bnβj(i) = yij· − yi··
Los contrastes de hipótesis son:
Si FA =MCA
MCE> Fa−1,a(b−1);α se rechaza la hipótesis nula, H0 ≡ σ2α = 0
Si FB(A) =MCB(A)
MCE> Fa(b−1),ab(n−1);α se rechaza la hipótesis nula, H0 ≡ βi(i) = 0,∀i
Modelos de diseños cruzado-anidados
Se dice que dos factores están completamente cruzados cuando aparecen todas las
posibles cobinaciones de los niveles de cada factor, como es el caso de un diseño bifactorial.
Se dice que dos factores están cruzados cuando ninguno de ellos está anidado en el
otro, es decir, ni A ⊂ B ni B ⊂ A.
Por ejemplo en el ejemplo previo de turnos y personal docente, puede ser que alguno
de estos dé clase en los dos turnos a la vez, con lo que se tienen dos factores cruzados
aunque no completamente cruzados.
Los diseños cruzado-anidados se caracterizan por tener tanto factores cruzados como
anidados. No existe un único modelo matemático, ya que depende de la disposición de los
factores en el diseño.
Modelo 1.
Se trata de estudiar el tiempo de montaje de una serie de piezas de relojería que ha
de hacerse a mano. Se consideran 3 posiciones diferentes para montar las piezas y cuatro
tamaños diferentes de las mismas. El montaje lo efectua una serie de personas, de modo
que se ocupan dos personas distintas para cada montaje con cada tamaño y posición.
Se tiene así, como factores,
P ≡ Posición (i = 1, 2, 3)T ≡ Tamaño (j = 1, 2, 3, 4)I ≡ Individuo (k = 1, 2)
12
P1 P2 · · ·. ↓ ↓ & . ↓ ↓ & · · ·T1 T2 T3 T4 T1 T2 T3 T4 · · ·↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ · · ·I1 I3 I5 I7 I9 I11 I13 I15 · · ·I2 I4 I6 I8 I10 I12 I14 I16 · · ·
Se observa que todos los niveles del factor posición se cruzan con todos los niveles del
factor tamaño y que el factor individuo tiene niveles distintos para cada uno de los cruces,
es decir, trabajan personas diferentes en cada caso. El esquema es P ∗ T y I ⊂ (P ∗ T ).
Modelo matemático. En el modelo se tienen que incluir:
— Los efectos principales de P y T.
— Las interacciones entre P y T.
— Los efectos de cada nivel k del factor I anidado en la combinación de (i, j).
yijkl = μ+ αi + βj + (αβ)ij + γk(ij) + εijkl
dondei = 1, . . . , aj = 1, . . . , bk = 1, . . . , cl = 1, . . . , nsujeto a las restricciones
aXi=1
αi =bX
j=1
βj =aXi=1
(αβ)ij =bX
j=1
(αβ)ij = 0
∀(i, j) fijocX
k=1
γk(ij) = 0
ya que el factor I tiene c niveles anidados en cada combinación de los niveles de P y T.
Se minimiza la suma de cuadrados de los errores para obtener los estimadores, derivan-
13
do con respecto a cada uno de los parámetros e igualando a 0. Se obtiene:
μ = y····
αi = yi··· − y····
βj = y·j·· − y····
(cαβ)ij = yij·· − yi··· − y·j·· + y····
Del mismo modo, para ∀i, j, k fijados
∂
∂γk(ij)
Xi,j,k,l
³yijkl − μ− αi − βj − (cαβ)ij − γk(ij)
´2= 0 =⇒
−2nXl=1
¡yijkl − yij·· − γk(ij)
¢= 0 =⇒
γk(ij) = yijk· − yij··
Las respectivas sumas de cuadrados y grados de libertad son:
Sumas de Cuadrados grados de libertad
SCT =aXi=1
bXj=1
cXk=1
nXl=1
(yijkl − y····)2 =⇒ abcn− 1
SCA = bcnaXi=1
(yi··· − y····)2 =⇒ a− 1
SCB = acnbX
j=1
(y·j·· − y····)2 =⇒ b− 1
SCAB = cnaXi=1
bXj=1
(yij·· − yi··· − y·j·· + y····)2 =⇒ ab− a− b+ 1 = (a− 1)(b− 1)
SCC(AB) = naXi=1
bXj=1
cXk=1
(yijk· − yij··)2 =⇒ abc− ab = ab(c− 1)
SCE =aXi=1
bXj=1
cXk=1
nXl=1
(yijkl − yijk·)2 =⇒ abcn− abc = abc(n− 1)
La tabla ANOVA es
14
F. V. S. C. G. L. M. C. FFactor A SCA a−1 MCA =
SCAa−1 FA =
MCAMCE
Factor B SCB b−1 MCB =SCBb−1 FB =
MCBMCE
Interacción A*B SCAB (a−1)(b−1) MCAB =SCAB
(a−1)(b−1) FAB =MCABMCE
Factor C (C⊂A∗B) SCC(AB) ab(c−1) MCC(AB) =SCC(AB)ab(c−1) FC(AB) =
MCC(AB)MCE
Residual SCE abc(n−1) MCE =SCE
abc(n−1)Total SCT abcn−1
Así los contrastes que se establecen son:Si FA > Fa−1,abc(n−1),α se rechaza H0 ≡ αi = 0 a nivel α.Si FB > Fb−1,abc(n−1),α se rechaza H0 ≡ βj = 0 a nivel α.Si FAB > F(a−1)(b−1),abc(n−1),α se rechaza H0 ≡ (αβ)ij = 0 a nivel α.Si FC(AB) > Fab(c−1),abc(n−1),α se rechaza H0 ≡ γk(ij) = 0 a nivel α.
Modelo 2.
En una serie de establecimientos de una cadena de tiendas de ropa se contabilizan
las ventas realizadas de ropa de verano y de ropa de invierno. Se anotan, además los
empleados que realizan las ventas.
Hay tres factores:
A ≡ TiendaB ≡ Tipo de ropaC ≡ Empleado
El esquema es el siguiente
Tienda 1 Tienda 2 · · ·. & . & · · ·V I V I · · ·↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ · · ·E1 E2 E1 E2 E3 E4 E3 E4 · · ·
Se observa, aquí, que el factor C (empleado) no está anidado en el cruce de los factores
A yB (A∗B) porque no está combinado con una única combinación (i, j), ya que se supone
que están los mismos empleados en verano e invierno.
Así,Empleados ⊂ Tiendas =⇒ C ⊂ AEmpleados ∗Ropa =⇒ C ∗BTiendas ∗Ropa =⇒ A ∗B
15
Modelo matemático.
yijkl = μ+ αi + βj + (αβ)ij + γk(i) + (γβ)k(i)j + εijkl
dondei = 1, . . . , aj = 1, . . . , bk = 1, . . . , cl = 1, . . . , n
sujeto a las restricciones
aXi=1
αi =bX
j=1
βj =aXi=1
(αβ)ij =bX
j=1
(αβ)ij = 0
y para cada i
cXk=1
γk(i) = 0
cXk=1
(γβ)k(i)j =bX
j=1
(γβ)k(i)j = 0
Se minimiza la suma de cuadrados de los errores para obtener los estimadores, derivando
con respecto a cada uno delo parámetros e igualando a 0. Se obtiene:
μ = y····
αi = yi··· − y····
βj = y·j·· − y····
(cαβ)ij = yij·· − yi··· − y·j·· + y····
γk(i) = yi·k· − yi···
Del mismo modo, para ∀i, j, k fijados:
∂
∂(γβ)k(i)j
Xi,j,k,l
³yijkl − μ− αi − βj − (cαβ)ij − γk(i) − (γβ)k(i)j
´2= 0 =⇒
∂
∂(γβ)k(i)j
Xi,j,k,l
¡yijkl − yij·· − yi·k· + yi··· − (γβ)k(i)j
¢2= 0
−2nXl=1
¡yijkl − yij·· − yi·k· + yi··· − (γβ)k(i)j
¢= 0 =⇒
16
y queda d(γβ)k(i)j = yijk· − yij·· − yi·k· + yi···
Las respectivas sumas de cuadrados y grados de libertad son:
Sumas de Cuadrados grados de libertad
SCT =aXi=1
bXj=1
cXk=1
nXl=1
(yijkl − y····)2 =⇒ abcn− 1
SCA = bcnaXi=1
(yi··· − y····)2 =⇒ a− 1
SCB = acnbX
j=1
(y·j·· − y····)2 =⇒ b− 1
SCAB = cnaXi=1
bXj=1
(yij·· − yi··· − y·j·· + y····)2 =⇒ ab− a− b+ 1 =
= (a− 1)(b− 1)
SCC(A) = bnaXi=1
cXk=1
(yi·k· − yi···)2 =⇒ ac− a = a(c− 1)
SCBC(A) = naXi=1
bXj=1
cXk=1
(yijk· − yij·· − yi·k· + yi···)2 =⇒ abc− ab− ac+ a =
a(b− 1)(c− 1)
SCE =aXi=1
bXj=1
cXk=1
nXl=1
(yijkl − yijk·)2 =⇒ abcn− abc =
= abc(n− 1)
Modelos de diseños cruzado-anidados con efectos mix-tos
Se supone que hay 3 factores A,B y C tales que
C ⊂ B ∗AA y B son factores fijosC es un factor aleatorio
El modelo es
yijkl = μ+ αi + βj + (αβ)ij + γk(ij) + εijkl
dondei = 1, . . . , aj = 1, . . . , bk = 1, . . . , cl = 1, . . . , n
17
sujeto a las restricciones
aXi=1
αi =bX
j=1
βj =aXi=1
(αβ)ij =bX
j=1
(αβ)ij = 0
∀(i, j) fijo
γk(ij) ∼ N(0, σ2γ)
εijkl ∼ N(0, σ2)
independientes entre sí.
Las esperanzas de los cuadrados medios son:⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩
E[MCA] = σ2 + nσ2γ +bcn
Xa
i=1α2i
a− 1
E[MCB] = σ2 + nσ2γ +acn
Xb
j=1β2j
b− 1
E[MCAB] = σ2 + nσ2γ +cnXa
i=1
Xb
j=1(αβ)2ij
(a− 1)(b− 1)E[MCC(AB)] = σ2 + nσ2γE[MCE] = σ2
Las estimas de los componentes de la varianza son:⎧⎨⎩ σ2 =MCE
σ2γ =MCC(AB)−MCE
n
Los contrastes de hipótesis son:
Si FA =MCA
MCC(AB)> Fa−1,ab(c−1);α se rechaza la hipótesis nula, H0 ≡ αi = 0,∀i
Si FB =MCB
MCC(AB)> Fb−1,ab(c−1);α se rechaza la hipótesis nula, H0 ≡ βj = 0,∀j
Si FAB =MCAB
MCC(AB)> F(a−1)(b−1),ab(c−1);α se rechaza la hipótesis nula, H0 ≡ (αβ)ij = 0,∀ij
Si FC(AB) =MCC(AB)
MCE> Fab(c−1),abc(n−1);α se rechaza la hipótesis nula, H0 ≡ σ2γ = 0
18
Regla para determinar las medias de cuadrados esper-adas (de Hesse)
En principio hay que diferenciar entre los factores fijos y los aleatorios. Las interac-
ciones entre los factores fijos y los aleatorios se consideran aleatorias.
A cada factor aleatorio se le asigna su componente de la varianza σ2• y a cada factor
fijo se le asigna su efecto fijo representado por la suma de cuadrados de los parámetros
asociados a ese factor entre sus grados de libertad, e.g. si A es un factor fijo se le asociaai=1 α
2i
a−1 .
Se construye la siguiente tabla:
Tipo Factor F A ANum. Niveles a b nSubíndices i j k
αi
Pai=1 α
2iÁ(a− 1) 0 b n
βj σ2β a 1 n(αβ)ij σ2αβ 1 1 nε(ij)k σ2 1 1 1
1. El término del error del modelo εij...m se representa como ε(ij...)m donde m es el
índice de las replicaciones, es decir, fijados ij . . . se consideran m réplicas aleatorias.
2. Los subíndices de cada término se subdividen en tres clases:
— activos: están en el término y no se encuentran entre paréntesis.
— pasivos: están en el término pero se encuentran entre paréntesis.
— ausentes: No están en el término aunque pertenecen al modelo.
3. En cada fila se escribe un 1 si uno de los subíndices pasivos (también están entre
paréntesis los correspondientes a los anidados) del componente de la fila coincide
con el subíndice de la columna.
19
Tipo Factor F A ANum. Niveles a b nSubíndices i j k
αi
Pai=1 α
2iÁ(a− 1)
βj σ2β(αβ)ij σ2αβε(ij)k σ2 1 1
4. Si algún subíndice de la fila coincide con el subíndice de la columna, se escribe:
— Un 1 si es un factor aleatorio
— Un 0 si es un factor fijo
Tipo Factor F A ANum. Niveles a b nSubíndices i j k
αi
Pai=1 α
2iÁ(a− 1) 0
βj σ2β 1(αβ)ij σ2αβ 1 1ε(ij)k σ2 1 1 1
En los huecos restantes, se escribe el número de niveles que tiene la columna corres-
pondiente. Queda así la siguiente tabla:
Tipo Factor F A ANum. Niveles a b nSubíndices i j k
αi
Pai=1 α
2iÁ(a− 1) 0 b n
βj σ2β a 1 n(αβ)ij σ2αβ 1 1 nε(ij)k σ2 1 1 1
5. Para obtener el valor esperado de la media de cuadrados de cualquier componente
del modelo, se hace:
a) Se tapan todas las columnas encabezadas por los subíndices activos de ese
componente.
b) Se multiplican los números de las filas que tienen al menos los mismos sub-
índices que el componente, multiplicándolos a su vez por el factor fijo (suma
de cuadrados) o el factor aleatorio (varianza) obtenidos.
20
c) La suma de estos productos es el valor esperado de la media de cuadrados.
En el ejemplo, quedaría:
E[MCA] = bn i α2i
a−1 + nσ2αβ + σ2
E[MCB] = anσ2β + nσ2αβ + σ2
E[MCAB] = nσ2αβ + σ2
E[MCE] = σ2
Por tanto, los contrastes de hipótesis son:
FA =MCA
MCABpara H0 ≡ αi = 0, ∀i
FB =MCB
MCABpara H0 ≡ σ2β = 0
FAB =MCAB
MCEpara H0 ≡ σ2αβ = 0
De todas formas, no siempre se pueden construir contrastes de hipótesis para cualquier
modelo. Una posible solución es suponer que algunas interacciones son nulas.
Ejemplo. Supongamos un modelo bifactorial con efectos aleatorios:
Tipo Factor A A ANum. Niveles a b nSubíndices i j k
αi σ2α 1 b nβj σ2β a 1 n(αβ)ij σ2αβ 1 1 nε(ij)k σ2 1 1 1
Las medias de cuadrados son:
E[MCA] = bnσ2α + nσ2αβ + σ2
E[MCB] = anσ2β + nσ2αβ + σ2
E[MCAB] = nσ2αβ + σ2
E[MCE] = σ2
Por tanto, los contrastes de hipótesis son:
21
FA =MCA
MCABpara H0 ≡ σ2α = 0, ∀i
FB =MCB
MCABpara H0 ≡ σ2β = 0
FAB =MCAB
MCEpara H0 ≡ σ2αβ = 0
Ejemplo. Supongamos un modelo bifactorial con efectos fijos:
Tipo Factor F F ANum. Niveles a b nSubíndices i j k
αi
Pai=1 α
2iÁ(a− 1) 0 b n
βjPb
j=1 β2jÁ(b− 1) a 0 n
(αβ)ijPa
i=1
Pbj=1(αβ)
2ijÁ(a− 1)(b− 1) 0 0 n
ε(ij)k σ2 1 1 1
Las medias de cuadrados son:
E[MCA] = bnai=1 α
2i
a−1 + σ2
E[MCB] = anbj=1 β
2j
b−1 + σ2
E[MCAB] = nai=1
bj=1(αβ)
2ij
(a−1)(b−1) + σ2
E[MCE] = σ2
Por tanto, los contrastes de hipótesis son:
FA =MCA
MCEpara H0 ≡ αi = 0,∀i
FB =MCB
MCEpara H0 ≡ βj = 0,∀j
FAB =MCAB
MCEpara H0 ≡ (αβ)ij = 0,∀i, j
Ejemplo. Supongamos un modelo anidado con dos factores:B ⊂ A dondeB es aleatorio
y A es fijo:
yijk = μ+ αi + βj(i) + εijk
siendo
i = 1, . . . , aj = 1, . . . , bk = 1, . . . , n
22
dondeaXi=1
αi = 0
para todo i,
βj(i) ∼ N¡0, σ2β
¢εijk ∼ N
¡0, σ2
¢donde todas las v.a. son independientes.
Tipo Factor F A ANum. Niveles a b nSubíndices i j k
αi
Pai=1 α
2iÁ(a− 1) 0 b n
βj(i) σ2β 1 1 nε(ij)k σ2 1 1 1
Las medias de cuadrados son:
E[MCA] = bnai=1 α
2i
a−1 + nσ2β + σ2
E[MCB(A)] = nσ2β + σ2
E[MCE] = σ2
Por tanto, los contrastes de hipótesis son:
FA =MCA
MCB(A)para H0 ≡ αi = 0,∀i
FB =MCB(A)
MCEpara H0 ≡ σ2β = 0
Ejemplo. Supongamos un modelo por bloques aleatorizados completos con un factor
aleatorio y un bloque aleatorio:
yij = μ+ αi + βj + εij
siendo
i = 1, . . . , aj = 1, . . . , b
23
donde
αi ∼ N(0, σ2α)
βj ∼ N¡0, σ2β
¢εij ∼ N
¡0, σ2
¢donde todas las v.a. son independientes.
Tipo Factor A A F*Num. Niveles a b 1Subíndices i j k
αi σ2α 1 b 1βj σ2β a 1 1εij σ2 1 1 1
(*) En este caso no hay réplicas aleatorias y hay un sólo elemento fijo (k = 1) . De
este modo, k no es una réplica por lo que se pone εij.
Las medias de cuadrados son:
E[MCA] = bσ2α + σ2
E[MCB] = aσ2β + σ2
E[MCE] = σ2
Por tanto, el contraste de hipótesis es:
FA =MCA
MCEpara H0 ≡ σ2α = 0
Ejemplo. Supongamos un modelo por bloques aleatorizados completos con un factor
aleatorio y un bloque fijo:
yij = μ+ αi + βj + εij
siendo
i = 1, . . . , aj = 1, . . . , b
24
donde
αi ∼ N(0, σ2α)bX
j=1
βj = 0
εij ∼ N¡0, σ2
¢donde todas las v.a. son independientes.
Tipo Factor A F F*Num. Niveles a b 1Subíndices i j k
αi σ2α 1 b 1
βjPb
j=1 β2jÁ(b− 1) a 0 1
εij σ2 1 1 1
(*) En este caso no hay réplicas aleatorias y hay un sólo elemento fijo (k = 1) . De
este modo, k no es una réplica por lo que se pone εij.
Las medias de cuadrados son:
E[MCA] = bσ2α + σ2
E[MCB] = abj=1 β
2j
b−1 + σ2
E[MCE] = σ2
Por tanto, el contraste de hipótesis es:
FA =MCA
MCEpara H0 ≡ σ2α = 0
25
Aplicación con R # Diseño anidado datos <- read.table("datAnida.txt", header=T) attach(datos) terreno <- as.factor(terreno) locali <- as.factor(locali) # Dos formas de programarlo: modelo <- aov(silice ~ terreno + terreno/locali) # alternativamente: modelo <- aov(silice ~ terreno + locali%in%terreno) summary(modelo)
Aplicación con SAS options ls=76 nodate nonumber; title 'ANOVA ANIDADO'; data ano; input terreno locali silice; cards; 1 1 6 1 1 2 1 1 0 1 1 8 1 2 13 1 2 3 1 2 9 1 2 8 1 3 1 1 3 10 1 3 0 1 3 6 1 4 7 1 4 4 1 4 7 1 4 9 2 1 10 2 1 9 2 1 7 2 1 12 2 2 2 2 2 1 2 2 1 2 2 10 2 3 4 2 3 1 2 3 7 2 3 9 2 4 0 2 4 3 2 4 4 2 4 1
26
3 1 0 3 1 0 3 1 5 3 1 5 3 2 10 3 2 11 3 2 6 3 2 7 3 3 8 3 3 5 3 3 0 3 3 7 3 4 7 3 4 2 3 4 5 3 4 4 4 1 11 4 1 0 4 1 6 4 1 4 4 2 5 4 2 10 4 2 8 4 2 3 4 3 1 4 3 8 4 3 9 4 3 4 4 4 0 4 4 8 4 4 6 4 4 5 5 1 1 5 1 4 5 1 7 5 1 9 5 2 6 5 2 7 5 2 0 5 2 3 5 3 3 5 3 0 5 3 2 5 3 2 5 4 3 5 4 7 5 4 4 5 4 0 ; proc glm; class terreno locali; model silice=terreno locali(terreno); contrast 'locali(terreno_A)' locali(terreno) 1 -1 0 0 , locali(terreno) 1 0 -1 0 , locali(terreno) 1 0 0 -1 ; contrast 'locali(terreno_B)' locali(terreno) 0 0 0 0 1 -1 0 0 , locali(terreno) 0 0 0 0 1 0 -1 0 , locali(terreno) 0 0 0 0 1 0 0 -1 ;
27
contrast 'locali(terreno_C)' locali(terreno) 0 0 0 0 0 0 0 0 1 -1 0 0 , locali(terreno) 0 0 0 0 0 0 0 0 1 0 -1 0 , locali(terreno) 0 0 0 0 0 0 0 0 1 0 0 -1 ; contrast 'locali(terreno_D)' locali(terreno) 0 0 0 0 0 0 0 0 0 0 0 0 1 -1 0 0 , locali(terreno) 0 0 0 0 0 0 0 0 0 0 0 0 1 0 -1 0 , locali(terreno) 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 -1 ; contrast 'locali(terreno_E)' locali(terreno) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 -1 0 0 , locali(terreno) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 -1 0 , locali(terreno) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 -1 ; means locali(terreno); run; ANOVA ANIDADO The GLM Procedure Class Level Information Class Levels Values terreno 5 1 2 3 4 5 locali 4 1 2 3 4 Number of observations 80 ANOVA ANIDADO The GLM Procedure Dependent Variable: silice Sum of Source DF Squares Mean Square F Value Pr > F Model 19 327.9500000 17.2605263 1.61 0.0823 Error 60 642.0000000 10.7000000 Corrected Total 79 969.9500000 R-Square Coeff Var Root MSE silice Mean 0.338110 65.09623 3.271085 5.025000 Source DF Type I SS Mean Square F Value Pr > F terreno 4 45.0750000 11.2687500 1.05 0.3876 locali(terreno) 15 282.8750000 18.8583333 1.76 0.0625 Source DF Type III SS Mean Square F Value Pr > F terreno 4 45.0750000 11.2687500 1.05 0.3876 locali(terreno) 15 282.8750000 18.8583333 1.76 0.0625
28
Contrast DF Contrast SS Mean Square F Value Pr > F locali(terreno_A) 3 50.1875000 16.7291667 1.56 0.2076 locali(terreno_B) 3 126.1875000 42.0625000 3.93 0.0125 locali(terreno_C) 3 74.7500000 24.9166667 2.33 0.0835 locali(terreno_D) 3 6.5000000 2.1666667 0.20 0.8943 locali(terreno_E) 3 25.2500000 8.4166667 0.79 0.5061 Level of Level of ------------silice----------- locali terreno N Mean Std Dev 1 1 4 4.00000000 3.65148372 2 1 4 8.25000000 4.11298756 3 1 4 4.25000000 4.64578662 4 1 4 6.75000000 2.06155281 1 2 4 9.50000000 2.08166600 2 2 4 3.50000000 4.35889894 3 2 4 5.25000000 3.50000000 4 2 4 2.00000000 1.82574186 1 3 4 2.50000000 2.88675135 2 3 4 8.50000000 2.38047614 3 3 4 5.00000000 3.55902608 4 3 4 4.50000000 2.08166600 1 4 4 5.25000000 4.57347424 2 4 4 6.50000000 3.10912635 3 4 4 5.50000000 3.69684550 4 4 4 4.75000000 3.40342964 1 5 4 5.25000000 3.50000000 2 5 4 4.00000000 3.16227766 3 5 4 1.75000000 1.25830574 4 5 4 3.50000000 2.88675135
29
UNIVERSIDAD NACIONAL DE INGENIERIA DISEÑO Y ANÁLISIS DE EXPERIMENTOS
FACULTAD DE INGENIERIA ECONOMICA Y CC.SS. PROF: LIC. NEL QUEZADA LUCIO
8.- análisis de covariancia
SUPUESTOS BÁSICOS DE ANÁLISIS DE COVARIANCIA
MODELO GENERAL DE ANÁLISIS
ANÁLISIS DE DATOS
Modelo de Análisis de la Covarianza.Introducción al modelo de MedidasRepetidas
Modelo de Análisis de la Covarianza
Introducción
El diseño por bloques se considera para eliminar el efecto de los factores de ruido que
no son controlables. El análisis de la covarianza es otro método que se utiliza para un
problema semejante: supongamos un experimento con una variable respuesta, y, donde
existe otra variable, x, de modo que ambas están relacionadas linealmente. Supongamos,
además, que x no es una variable controlable por el experimentador pero que puede ser
observada junto con y. A la variable x se le denomina covariable o variable concomitante.
El análisis de la covarianza sirve para ajustar la variable respuesta por el efecto de
la covariable. En caso de no hacerlo, la media de cuadrados del error puede aumentar
mucho y hacer que las verdaderas diferencias en la respuesta debido a los tratamientos
sean difíciles de detectar. El análisis de la covarianza resulta ser una combinación entre
el ANOVA y el análisis de regresión.
Modelo
Suponemos un modelo con un solo factor y una covariable y asumimos una relación
lineal entre la variable respuesta y la covariable:
yij = µ+ αi + β(xij − x··) + εij
1
parai = 1, . . . , aj = 1, . . . , n
En el modelo,
yij es la j -ésima observación bajo el i-ésimo nivel del tratamiento.xij es la medida de la covariable que se hace para yijx·· es la media de los valores de xijµ es el valor medio global.αi es el efecto del nivel i-ésimo del tratamientoβ coeficiente de regresión que relaciona yij con la covariable xijεij error aleatorio
Se asume que εij ∼ N(0, σ2) son independientes entre sí, β 6= 0,Pa
i=1 αi = 0 y la
covariable x no está afectada por los tratamientos.
Se utiliza la siguiente notación:
Syy =aXi=1
nXj=1
(yij − y··)2 =aXi=1
nXj=1
y2ij −y2··an
Sxx =aXi=1
nXj=1
(xij − x··)2 =aXi=1
nXj=1
x2ij −x2··an
Sxy =aXi=1
nXj=1
(xij − x··)(yij − y··) =aXi=1
nXj=1
xijyij − (x··)(y··)an
Tyy = naXi=1
(yi· − y··)2 =1
n
aXi=1
y2i· −y2··an
Txx = naXi=1
(xi· − x··)2 =1
n
aXi=1
x2i· −x2··an
Txy = naXi=1
(xi· − x··)(yi· − y··) =1
n
aXi=1
xi·yi· − x··y··an
Eyy =aXi=1
nXj=1
(yij − yi·)2 = Syy − Tyy
Exx =aXi=1
nXj=1
(xij − xi·)2 = Sxx − Txx
Exy =aXi=1
nXj=1
(xij − xi·)(yij − yi·) = Sxy − Txy
2
En general, S = T +E donde los símbolos S, T y E son las sumas de cuadrados y los
dobles productos para el total, los tratamientos y el error respectivamente.
Los estimadores por mínimos cuadrados son
µ = y··
αi = yi· − y·· − β(xi· − x··)
β =Exy
Exx
La suma de cuadrados del error es
SCE = Eyy −E2xy
Exx,
con a(n− 1)− 1 grados de libertad.La varianza del error experimental es, así,
MCE =SCE
a(n− 1)− 1 .
Supongamos que no hay efecto del tratamiento, entonces el modelo queda reducido a
yij = µ+ β(xij − x··) + εij
Los estimadores por mínimos cuadrados son
µ = y··
β =Exy
Exx.
La suma de cuadrados del error en el modelo reducido queda como
SCE∗ = Syy −S2xySxx
con (an− 2) grados de libertad.La cantidad S2xy
Sxxes la reducción de la suma de cuadrados de y, obtenida por la regresión
lineal de y en x. Además, SCE < SCE∗ porque el modelo completo incluye los parámetros
3
adicionales Así, SCE∗ − SCE es una reducción en la suma de cuadrados debida a los
términos αi.
De esta manera, a partir de SCE∗−SCE se tiene una suma de cuadrados con (a−1)grados de libertad para contrastar la hipótesis de que no hay efectos de los tratamientos.
Para contrastar la hipótesis
H0 ≡ αi = 0,∀i
se calcula
F0 =
SCE∗ − SCE
a− 1SCE
a(n− 1)− 1que, si la hipótesis nula es cierta, se distribuye como una F de Snedecor:
Fa−1,a(n−1)−1,
de modo que se rechaza H0 al nivel α si
F0 > Fa−1,a(n−1)−1;α
Se obtiene la siguiente tabla:
Sumas de productosF. Variación g. l. x xy yTratamientos a− 1 Txx Txy Tyy
Error a(n− 1) Exx Exy Eyy
Total an− 1 Sxx Sxy Syy
Ajuste por RegresiónF. Variación y g. l. Cuadrados medios
Tratamientos SCE = Eyy − E2xyExx
Error SCE∗ = Syy − S2xySxx
a(n− 1)− 1 MCE = SCEa(n−1)−1
Total an− 2Tratamientos Ajustados SCE∗ − SCE a− 1 SCE∗−SCE
a−1
4
También es importante efectuar un contraste también sobre el termino de regresión β.
Se calculan las medias ajustadas por la regresión:
Ajust_yi· = yi· − β(xi· − x··)
para i = 1, 2, . . . , a, donde
β =Exy
Exx.
Esta media ajustada es el estimador de mínimos cuadrados de µ+αi, donde i = 1, . . . , a.
Por otro lado, el error estándar de la media ajustada de cada tratamiento es
SAjust_yi· =
∙MCE
µ1
n+(xi· − x··)2
Exx
¶¸ 12
.
Finalmente, con respecto al coeficiente de regresión se puede contrastar la hipótesis
H0 ≡ β = 0 mediante el estadístico
F0 =
E2xyExx
MCE,
que, si la hipótesis nula es cierta, se distribuye como una F de Snedecor, F1,a(n−1)−1.
De este modo, se rechaza H0 ≡ β = 0, a nivel α si
F0 > F1,a(n−1)−1,α.
Ejemplo. Se considera un estudio para determinar si existen diferencias en la resistencia
de una fibra producida por tres máquinas diferentes. Se piensa que el grosor de las fibras
(x) influye también, obteniéndose los siguientes valores
Máquina 1 Máquina 2 Máquina 3y x y x y x36 20 40 22 35 2141 25 48 28 37 2339 24 39 22 42 2642 25 45 30 34 2149 32 44 28 32 15207 126 216 130 180 106
5
Se trata de eliminar el efecto del grosor (x) en la resistencia de las fibras para poder
comparar el efecto de las tres máquinas.
Syy =aXi=1
nXj=1
y2ij −y2··an= 362 + 412 + · · ·+ 322 − 603
2
3 · 5 = 346,4
Sxx =aXi=1
nXj=1
x2ij −x2··an= 202 + 252 + · · ·+ 152 − 362
2
3 · 5 = 261,73
Sxy =aXi=1
nXj=1
xijyij − (x··)(y··)an
= 20 · 36 + · · ·+ 15 · 32− 362 · 6033 · 5 = 282,6
Tyy =1
n
aXi=1
y2i· −y2··an=1
5(2072 + 2162 + 1802)− 603
2
3 · 5 = 140,4
Txx =1
n
aXi=1
x2i· −x2··an=1
5(1262 + 1302 + 1062)− 362
2
3 · 5 = 66,13
Txy =1
n
aXi=1
xi·yi· − x··y··an
=1
5(207 · 126 + 216 · 130 + 180 · 106)− 362 · 603
3 · 5 = 96
Eyy = Syy − Tyy = 206
Exx = Sxx − Txx = 195,6
Exy = Sxy − Txy = 186,6
Por otro lado
SCE∗ = Syy −S2xySxx
= 346,4− 282,62
261,73= 41,27
con (an− 2) = 3 · 5− 2 = 13 grados de libertad, y
SCE = Eyy −E2xy
Exx= 206− 186,6
2
195,6= 27,99
con a(n− 1)− 1 = 3(5− 1)− 1 = 11 grados de libertad.La suma de cuadrados para contrastar H0 ≡ αi = 0, para i = 1, 2, 3 es
SCE∗ − SCE = 41,27− 27,99 = 13,28
con a− 1 = 3− 1 = 2 grados de libertad.
6
Así, se calcula
F0 =SCE∗−SCE
a−1SCE
a(n−1)−1=
13,282
27,992,54
= 2,61.
Como, para α = 0,10,
F0 = 2,61 < Fa−1,a(n−1)−1;α = F2,11;0010 = 2,86
se acepta la hipótesis nula.H0 ≡ αi = 0, para i = 1, 2, 3.
Se estima el coeficiente de regresión
β =Exy
Exx=186,6
195,6= 0,954.
Para contrastar la hipótesis H0 ≡ β = 0 se usa el estadístico
F0 =
E2xyExx
MCE=
186,62
195,6
2,54= 70,08
Como F1,a(n−1)−1 = F1,11;0010 = 9,65, se rechaza H0 ≡ β = 0, a nivel 0,10. Con lo cual la
corrección mediante el análisis de la covarianza es necesario.
Las medias de los tratamientos ajustadas son
Ajust_yi· = yi· − β(xi· − x··) =⇒
Ajust_y1· = 41,4− 0,954 · (25,2− 24,13) = 40,38
Ajust_y2· = 43,2− 0,954 · (26.− 24,13) = 41,42
Ajust_y3· = 36− 0,954 · (21,2.− 24,13) = 38,8
Si se comparan las medias de los tratamientos sin ajustar con las ajustadas, se observa
que estas últimas están mucho más próximas entre sí, lo cual es otra indicación de la
necesidad de hacer un análisis de la covarianza.
7
Modelo de Medidas Repetidas
En numerosas ocasiones, los sujetos que se estudian son sujetos que pueden presentar
numerosas diferencias entre ellos ante el mismo tratamiento, introduciéndose, entonces,
una mayor fuente de error experimental. Aumenta, así, la media de cuadrados de los errores
haciendo difícil distinguir las diferencias entre los tratamientos. Una manera de controlar
esta variabilidad entre los sujetos, consiste en aplicar a cada uno de ellos los a tratamientos.
Este diseño se denomina demedidas repetidas. Equivale a un diseño por bloques completos,
donde la variable bloque son los sujetos, siendo ésta de efectos aleatorios.
Supongamos un experimento donde aparece un factor con a tratamientos, y que cada
tratamiento se aplica exactamente sobre cada uno de los n individuos:
SujetosTratamientos 1 2 · · · n Totales
1 y11 y12 · · · y1n y1·2 y21 y22 · · · y2n y2·...
......
. . ....
...a ya1 ya2 · · · yan ya·
Totales y·1 y·2 · · · y·n y··
La observación yij es la respuesta del sujeto j al tratamiento i y sólo se usan n sujetos.
El modelo se escribe como
yij = µ+ αi + βj + εij,
donde αi es el efecto del i−ésimo tratamiento y βj el efecto del j -ésimo sujeto.Se supone que
aXi=1
αi = 0,
y que los individuos son una muestra aleatoria de una población dada, de modo que los
individuos actúan como un efecto aleatorio
βj ∼ N(0, σ2β).
8
Dado que βj es común a todos los a tratamientos medidos sobre el mismo sujeto j, la
covarianza entre yij e yi0j es, en general, diferente de 0, asumiéndose que es constante
sobre los tratamientos y los sujetos.
La suma total de cuadrados se parte en dos sumatorios:
aXi=1
nXj=1
(yij − y··)2 = a
nXj=1
(y·j − y··)2 +
aXi=1
nXj=1
(yij − y·j)2
El primer término de la suma de cuadrados recoge la diferencia entre sujetos y el segundo
término la diferencia dentro de sujetos, esto es,
SCT = SCentre + SCdentro
de modo que ambas sumas de cuadrados son independientes entre sí con
an− 1 = (n− 1) + n(a− 1)
grados de libertad.
Las diferencias dentro de los sujetos dependen tanto de las diferencias en los efectos
de los tratamientos como del ruido. Así, se descompone la suma de cuadrados dentro de
sujetos de la siguiente forma:
aXi=1
nXj=1
(yij − y·j)2 = n
aXi=1
(yi· − y··)2 +
aXi=1
nXj=1
(yij − yi· − y·j + y··)2 .
El primer término mide la contribución de las diferencias entre las medias de los tratamien-
tos a la suma de cuadrados dentro de los sujetos, y el segundo término es la variación
residual debido al error. Ambos términos son independientes. Así,
SCdentro = SCTra+ SCE
con
n(a− 1) = (a− 1) + (a− 1)(n− 1)
grados de libertad respectivamente.
9
Se contrasta
H0 ≡ αi = 0, i = 1, . . . , a
H1 ≡ αi 6= 0, para algún i
usándose el cociente
F0 =
SCTra
a− 1SCE
(a− 1)(n− 1)=
MCTra
MCE
que, cuando H0 es cierta, se distribuye como una F de Snedecor Fa−1,(a−1)(n−1). Se rechaza
H0 a nivel α cuando
F0 > Fa−1,(a−1)(n−1).
La tabla de análisis de la varianza es
Fuentes Variación Suma de Cuadrados grados libertad F
Entre SujetosPn
j=1
y2·ja− y2··
ann− 1
Dentro SujetosPa
i=1
Pnj=1 y
2ij −
Pnj=1
y2·ja
n(a− 1)Tratamientos SCTra =
Pai=1
y2i·a− y2··
ana− 1 F0 =
SCTraa−1SCE
(a−1)(n−1)Residual SCE = (2)− (3) (a− 1)(n− 1)Total
Pai=1
Pnj=1 y
2ij − y2··
anan− 1
10