Post on 17-Jan-2016
description
TEMA V
Definición general
Clasificación
Caso paramétrico: análisis estadísticos aplicables
Formato del diseño multigrupo completamente al azar, modelo estructural y componentes de variación
DISEÑOS EXPERIMENTALES MULTIGRUPO
ESQUEMA GENERAL
Concepto
Los diseños multigrupo, de uso frecuente en ciencia psicológica y social, son estructuras de una sola variable independiente a tres o más valores o niveles. Al seleccionar más de dos valores de la variable independiente o causal, es posible extraer la relación funcional entre la variable independiente y dependiente del experimento. Por dicha razón, estas estructuras se conocen por experimentos funcionales o paramétricos (Plutchik, 1968).
Clasificación
Aleatorización Diseño multigrupo (de tres o más grupos completamente al azar
Constancia Diseño de Bloques de grupos al azar
Diseño de Cuadrado Latino
Diseño Jerárquico
El sujeto como control propio
Diseño de medidas repetidas con tres o más tratamientos (Sujetos x Tratamientos)
Técnica de control Diseño
Diseño multigrupo al azar
Diseño multigrupo al azar
El diseño multigrupo completamente al azar requiere la asignación aleatoria de los sujetos de la muestra a los distintos grupos, sin restricción alguna. Se trata de una extensión del diseño de dos grupos, ya que en esta situación se eligen de la variable de tratamiento más de dos valores o condiciones.
Formato del diseño de multigrupo al azar
Muestra experimental
Asignación aleatoria
Tratamientos
.…………
A1 A2 … Aj … Aa
Sujetos
Sujetos
Sujetos
Análisis aplicables
Prueba de significación general
Si la V. Independiente es categórica
Si la V. Independiente es cuantitativa
ANOVA unidireccional
Comparaciones múltiples
Análisis de tendencias
Caso paramétrico. Ejemplo
Supóngase que se pretende probar si la cantidad de repasos es una variable decisiva en la retención (memoria de recuerdo), para un conjunto de palabras monosílabas de igual valor asociativo. De la variable independiente o variable repaso se seleccionan los siguientes valores: presentación de la lista sin repaso (condición A1), dos presentaciones de la lista, siendo la segunda presentación un repaso (condición A2), tres presentaciones y dos repasos (condición A3) y, por último, cuatro presentaciones y tres repasos (condición A4). ..//..
Se instruye a los sujetos que lean en voz alta cada uno de los ítems presentados, a un ítem por segundo. Al terminar las lecturas, los sujetos realizan una prueba de memoria de recuerdo consistente en restituir o recuperar de la memoria la mayor cantidad de ítems. La medida de la variable dependiente es la cantidad de respuestas o ítems correctamente recordados. Asumiendo que cada ítem tiene la misma dificultad de recuerdo, se considera que la escala de medida es de intervalo.
Modelo de prueba estadística
Paso 1. La hipótesis de nulidad asume que las medias de los grupos experimentales proceden de una misma población y, por consiguiente, son idénticas:
H0: μ1 = μ2 = μ3 = μ4
Paso 2. La hipótesis experimental asume que la
cantidad media de palabras recordadas variará positivamente en función de la cantidad de repasos. En términos estadísticos
H1: μ1 μ2, o μ1 μ3, o μ1 μ4, o μ2 μ3, o μ2 μ4, o
μ3 μ4
H1: por lo menos una desigualdad
Paso 3. Se aplica una prueba de significación general o prueba ómnibus, cuyo estadístico es la F de Snedecor. El nivel de significación de α = 0.05.
El tamaño de la muestra experimental y las submuestras de tratamiento son:
N = 20 y n = 5.
F0.95(3/16) = 3.24
Paso 4. Tras la ejecución del experimento, se calcula el valor empírico de F, a partir de la matriz de datos.
Datos del experimento
41
8.2
33
6.6
25
5
12
2.4
9
7
8
9
8
6
7
8
7
5
4
3
5
7
6
2
1
3
4
2
A4A3A2A1
TRATAMIENTOS
DISEÑO MULTIGRUPO
Totales:Medias:
111
5.5
ANOVA unidireccional
MODELO ESTRUCTURAL DEL AVAR: DISEÑO MULTIGRUPO
ijjijY
Especificación de modelo del ANOVA
Yij = la puntuación del i sujeto bajo la j condición experimental o tratamiento.
μ = la media global de los datos del experimento.
αj = μj - μ, es el efecto o impacto de j nivel de la variable de tratamiento A.
εij = Yij - μj, es el error experimental asociado al i sujeto bajo el j tratamiento.
Para que el modelo sea válido, se especifican las siguientes condiciones:
Σαj = 0 y εij NID(0, σ²)
Cálculo de las sumas de cuadrados
SCtotal = (2)² + (1)² + ... + (8)² - (111)²/20 = 731 - 616.05 = 114.95
SCtrat. = [(12)²/5 + (25)²/5 + (33)²/5 + (41)²/5] - (111)²/20 = 707.80 - 616.05 = 91.75
SCerror = (2)² + (1)² + ... + (8)² - [(12)²/5 + (25)²/5 + (33)²/5 + (41)²/5 ] = 23.20
CUADRO RESUMEN DEL AVAR: DISEÑO MULTIGRUPO
F0.95(3/16) = 3.24
an-1=19 114.95Total (T)
<0.0521.0830.58
1.45
(a-1)=3
a(n-1)=16
91.75
23.20
Trat (A)
Error (S/A)
pFCMg.lSCF.V.
Modelo de prueba estadística
Paso 5. Dado que el valor observado de F es mayor que el valor teórico al 5% y en función de los grados de libertad correspondientes, se rechaza la hipótesis de nulidad y se acepta la hipótesis alternativa o hipótesis experimental a este nivel de significación.
Supuesto de homogeneidad
Igualdad de las variancias de los grupos:
H0: σ1² = σ2² = ... = σj²
Prueba de la homogeneidad
Hartley: cuando n por grupo es constante
mayor de las variancias s²mayor
Fmax = ----------------------------------- = -------------
menor de las variancias s²menor
Cálculo de Fmax
Cálculo de las variancias de los grupos de tratamiento─────────────────────────────────────────────────Grupo de tratamiento SC g.l. s²─────────────────────────────────────────────────Primero (2²+1²+...+2²)-(12²/5) = 5.2 n-1=4 5.2/4 = 1.3 Segundo (4²+3²+...+6²)-(25²/5 ) = 10.0 n-1=4 10/4 = 2.5Tercero (6²+7²+...+5²)-(33²/5) = 5.2 n-1=4 5.2/4 = 1.3Cuarto (9²+7²+...+8²)-(41²/5) = 2.8 n-1=4 2.8/4 = 0.7─────────────────────────────────────────────────El valor de Fmax, teniendo por numerador la variancia más grande y por denominador la más pequeña, es
2.5Fmax = ----- = 3.42
0.7
Prueba del supuesto de homogeneidad de las variancias
2
2
maxmenor
mayor
s
sF
60.20)4/4(
42.37.0
5.2
95.0max
max
F
F
7.0
3.1
5.2
3.1
24
23
22
21
S
S
S
s
j/(n-1)
Resultado de la prueba
Entrando en la tabla de Fmax, con los parámetros correspondientes y a un nivel de significación de 0.05, el valor teórico de Fmax 0.95(4/4) es 20.60. Dado que el valor observado del estadístico es más pequeño que el de las tablas, se acepta la hipótesis de nulidad o supuesto de homogeneidad de las variancias.
Comparaciones múltiples
Contrastes de medias
Las comparaciones o contrastes se efectúan, por lo general, entre las medias de los grupos de tratamiento. Genéricamente, una comparación entre k medias es la combinación lineal o suma ponderada de medias. Antes de examinar los distintos procedimientos de comparaciones múltiples, proponemos una clasificación práctica para su descripción.
Comparaciones múltiples
A priori o planificadas
No ortogonales
Ortogonales
A posteriori o no planificadas
Fisher
Duncan
Tukey
Scheffé
Dunnet
Newman-Keuls
Contrastes a priori o planificados
Las comparaciones a priori o planificadas se formulan de acuerdo con los intereses previos o teóricos del investigador, y se plantean antes de obtener los resultados del experimento. Según su naturaleza, las comparaciones planificadas son no ortogonales y ortogonales.
Contrastes no ortogonales
Suma algebraica de las medias de los tratamientos ponderadas por unos coeficientes que cumplen la condición de linealidad:
Σaj = 0_ _ _ _
c = a1Y.1 + a2Y.2 + ... + ajY.j = ΣajY.j
Cinco hipótesis de nulidad para los contrastes no ortogonales
1. H0 = μ2 - μ1 = 0
Dos lecturas de la lista (condición A2) no difiere de una sola lectura (condición A1).
2. H0 = μ3 - μ1 = 0
Se asume la igualdad entre la condición de tres (A3) y uno (A1). ..//..
3. H0 = μ4 - μ1 = 0
Se asume la igualdad entre cuatro lecturas (condición A4) y una sola lectura (condición A1).
4. H0 = μ3 - 1/2(μ1 + μ2) = 0
Se establece la igualdad entre tres lecturas y el promedio entre una y dos lecturas.
5. H0 = μ4 - 1/3(μ1 + μ2 + μ3) = 0
Se define la igualdad entre cuatro lecturas y el promedio de las restantes.
Reformulación de las hipótesis nulas en combinaciones lineales
1. (-1)μ1 + (1)μ2 + (0)μ3 + (0)μ4 = 0
2. (-1)μ1 + (0)μ2 + (1)μ3 + (0)μ4 = 0
3. (-1)μ1 + (0)μ2 + (0)μ3 + (1)μ4 = 0
4. (-1/2)μ1 + (-1/2)μ2 + (1)μ3 + (1)μ4 = 0
5. (-1/3)μ1 + (-1/3)μ2 + (-1/3)μ3 + (1)μ4 = 0
Comparaciones múltiples a priori: no ortogonales
1.331-1/3-1/3-1/3c5
1.501-1/2-1/2c4
2100-1c3
2010-1c2
2001-1c1
a4a3a2a1Contraste
Coeficientes
Σa²j
Prueba de las hipótesis de nulidad
Paso 1. Cálculo del valor empírico del contraste.
c1 = (-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2 = 2.6
c2 = (-1)2.4 + (0)5.0 + (1)6.6 + (0)8.2 = 4.2
c3 = (-1)2.4 + (0)5.0 + (0)6.6 + (1)8.2 = 5.8
c4 = (-1/2)2.4 + (-1/2)5.0 + (1)6.6 + (0)8.2 = 2.9
c5 = (-1/3)2.4 + (-1/3)5.0 + (-1/3)6.6 + (1)8.2 = 3.53
Paso 2. Cálculo del error estándar del contraste.
a²1 a²2 a²j
σc sc = s²e (------ + ------ + ... + ------)
n n n
CMe
= -----------Σa²j
n
donde s²e = CMe es la variancia del error o Cuadrado Medio del error del Análisis de la Variancia. Según esta fórmula, se calculan los errores estándar de los distintos contrastes: (1.45)2
sc1 = -------------- = 0.76 5 (1.45)2
sc2 = -------------- = 0.76 5 (1.45)2
sc3 = --------------- = 0.76 5 (1.45)1.5
sc4 = --------------- = 0.66 5 (1.45)1.33
sc5 = ---------------- = 0.62 5
Paso 3. A continuación, se prueba la significación del contraste mediante el estadístico t o F. Cuando se utiliza este segundo estadístico, es necesario calcular las Sumas de Cuadrados de los contrastes, aplicando la siguiente expresión:
c²
SCc = ---------
Σ(a²j/n)
El valor de los respectivos estadísticos de la prueba se obtienen de las ecuaciones siguientes: c t = -------, y
sc CMc F = --------- CMe Puesto que cada contraste tiene un solo grado de libertad, el valor del Cuadrado Medio es la correspondiente Suma de Cuadrados.
69.562.0
53.3
39.466.0
9.2
65.776.0
8.5
53.576.0
2.4
42.376.0
6.2
62.0=5
33.1)45.1(=c
66.0=5
5.1)45.1(=c
76.0=5
2)45.1(=c
76.0=5
2)45.1(=c
76.0=5
2)45.1(=c
5
4
3
2
1
cs
ct = 2
jerror
c an
CMs
1
1
1
1
1
g.l
3.3245.1
84.46
33.1945.1
03.28
5845.1
1.84
41.3045.1
1.44
66.1145.1
9.16
84.4633.1
)53.3)(5(c
03.285.1
)9.2)(5(c
1.842
)8.5)(5(c
1.442
)2.4)(5(c
9.162
)6.2)(5(c
2
5
2
4
2
3
2
2
2
1
error
c
CM
CMF =2
2
=j
c aΣ
ncSC
Cuadro resumen valores de t y F
Cuadro resumen del cálculo de las Sumas de cuadrados y de los valores de t y F.
Sumas de Cuadrados Valores t F (5)(2.6)² 2.6 16.9 c1 = ------------- = 16.9 -------- = 3.42 -------- = 11.66 2 0.76 1.45
(5)(4.2)² 4.2 44.1 c2 = ------------- = 44.1 ------- = 5.53 -------- = 30.41 2 0.76 1.45 (5)(5.8)² 5.8 84.1 c3 = ------------- = 84.1 ------- = 7.65 -------- = 58 2 0.76 1.45
(5)(2.9)² 2.9 28.03
c4 = ------------- = 28.03 ------- = 4.39 -------- = 19.33 1.5 0.66 1.45
(5)(3.53)² 3.53 46.84 c5 = ------------- = 46.84 -------- = 5.69 -------- = 32.3
1.33 0.62 1.45
Paso 4. Entrando en la tabla de t, con los grados de libertad asociados al término de error del ANOVA y a un nivel de significación del 5%, se tiene
t0.95 (16) = 1.76
De igual modo, entrando en la tabla de F, se tienen
F0.95(1/16) = 4.49
De esto se concluye que todos los contrastes son significativos.
Contrastes ortogonales
La propiedad básica de las comparaciones ortogonales es que reflejan piezas de información independientes y que el resultado de una comparación no tiene relación alguna con el resultado de cualquier otra.
Bajo el supuesto de ortogonalidad, dos comparaciones son independientes cuando la suma de los productos cruzados de los coeficientes es cero, es decir, la condición de ortogonalidad entre dos comparaciones cumple la siguiente restricción:
(Σajak = 0)
Cinco hipótesis de nulidad para los contrastes ortogonales1. H0 = μ2 - μ1 = 0
Dos lecturas de la lista (condición A2) no difiere de una sola lectura (condición A1).
3. H0 = 2μ3 – (μ1 + μ2) = 0Se establece la igualdad entre tres lecturas y el promedio entre una y dos lecturas.
5. H0 = 3μ4 - (μ1 + μ2 + μ3)= 0Se define la igualdad entre cuatro lecturas y el promedio de las restantes.
Coeficientes de los contrastes ortogonales
123-1-1-1C3
60 2-1-1C2
20 0 1-1C1
a4a3a2a1Contraste
Coeficientes 2ja
Supuesto de ortogonalidad entre dos contrastes
Ejemplo: entre el contraste uno y dos:
(-1)(-1) + (1)(-1) + (0)(2) + (0)(0) = 0
Suma de cuadrados del contraste
nC²
SCC = --------
Σa²j
Sumas de cuadrados
5[(-1)2.4 + (1)5.0 + (0)6.6 + (0)8.2]²SCC1 = ------------------------------------------------- = 16.90
2 5[(-1)2.4 + (-1)5.0 + (2)6.6 + (0)8.2]²
SCC2 = --------------------------------------------------- = 28.03 6
5[(-1)2.4 + (-1)5.0 + (-1)6.6 + (3)8.2]²SCC3 = ------------------------------------------------------ = 46.82
12 ======= SCA: 91.75
Razones F
16.90
F1 = ------------ = 11.66 1.45 28.03
F2 = ------------ = 19.33 1.45 46.28
F3 = ----------- = 32.39 1.45
Valor teórico de F
Entrando en la tabla de la distribución F, el valor teórico del estadístico es F0.95(1/16) = 4.49
Características de los contrastes ortogonales
Una propiedad característica de las comparaciones ortogonales es la descomposición de la Suma de Cuadrados de tratamientos del ANOVA en tantos componentes ortogonales (independientes) como grados de libertad de esa fuente de variación (se dispone de un grado de libertad por componente).
Siguiendo con el ejemplo propuesto, la Suma de Cuadrados de tratamientos, SCA, tiene a - 1 grados de libertad y, como consecuencia, tres componentes ortogonales (siendo a igual a cuatro).
Propiedades de los contrastes ortogonales
SCC1 1g.l. (16.9)
SCA SCC2 1g.l.(28.03)
(91.75)
SCC3 1g.l.(46.82)
Desventajas de los contrastes a priori o planificados
Se corre el riesgo de cometer más errores de Tipo I al asumir como verdadera la hipótesis de nulidad; es decir, hay la posibilidad de realizar más rechazos falsos de la hipótesis de nulidad o de no efectos. En línea con esa problemática, es conveniente distinguir dos tipos de errores: Error de Tipo I por comparación (PC) y tasa de error por familia (PF). El error PC, simbolizado por α, es la probabilidad de cometer un error de Tipo I por comparación. ..//..
Si α es 0.05, la probabilidad es 0.05. Por el contrario, la tasa de error PF, αPF, es la probabilidad de cometer uno o más errores de Tipo I en un conjunto de comparaciones. La relación entre estos dos errores y la probabilidad de cometer al menos un error de Tipo I es
αPF = 1 - (1 - α)c
Cálculo del error PF
Así, con cinco comparaciones (c = 5), y un α de 0.05, la probabilidad de cometer un error PF es 1 - 0.955 = 0.23. De forma aproximada, esa probabilidad se calcula por (c)(α), 5(0.05) = 0.25. En el caso de las comparaciones ortogonales estudiadas, la probabilidad de rechazar una de las hipótesis de nulidad siendo verdadera es 1 - (0.95)3 = 0.14. Esta probabilidad tiende a aumentar con el número de comparaciones independientes. ..//..
Así, para un conjunto de comparaciones independientes, es posible que algunas sean significativas como resultado de la propia metodología. Para evitar esas dificultades se aplican las comparaciones a posteriori, post hoc, o comparaciones simultáneas.
Cantidad de contrastes planificados
La cantidad de comparaciones planificadas a partir de un número dado de tratamientos, a, es
(3a - 1)
1 + ------------- - 2a
2 ..//..
Si, como en el experimento propuesto, a = 4 (cuatro tratamientos), entonces hay 1 + (34 - 1)/2 - 24 = 25 comparaciones. De las cuales, [4(4 - 1)]/2 = 6, son comparaciones entre pares y 19 son comparaciones de combinaciones de tratamientos. En la práctica, no se formulan las 25 comparaciones posibles, sino tan sólo las que tienen interés teórico. Dado que existe una probabilidad calculada de cometer un falso rechazo de la hipótesis de nulidad, en una de esas comparaciones, es posible controlar el error por conjunto o familia de comparaciones a un nivel aceptable.
Corrección de Bonferroni o de Dunn
Supóngase, como hipótesis de trabajo, que se efectúan cinco comparaciones planificadas, con un α de 0.05. La tasa de error PF es, en este caso, 5(0.05) = 0.25. Para reducir este error, se escoge simplemente un valor más pequeño de α, por ejemplo 0.01. De este modo, la tasa de error PF es ahora de 5(0.01) = 0.05. Esta corrección, conocida como prueba de Bonferroni o prueba Dunn, consiste en dividir tasa de error PF deseada por la cantidad de comparaciones (0.05/5 = 0.01).
Contrastes no planificados o a posteriori
El objetivo de los contrastes no planificados es obtener el máximo de información de los datos de un experimento. Los contrastes no planificados son procedimientos para efectuar comparaciones a posteriori. Estos procedimientos poseen, de otra parte, la ventaja de mantener constante la probabilidad de cometer errores de Tipo I cuando se toma la decisión estadística. Entre los distintos métodos, se encuentran las pruebas de Scheffé (1959), Tukey (1953), Newman-Keuls (Newman, 1939 y Keuls, 1952), Duncan (1953), y Dunnett (1955).
Contrastes no planificados o a posteriori
Los métodos propuestos se conocen por comparaciones simultáneas.
Con comparaciones no planificadas, a posteriori o post hoc, los pruebas estadísticas citadas van encaminados a reducir el tamaño de la región crítica, y controlan el error PF mediante el ajuste del valor alfa.
Contrastes no planificados o a posteriori
Con comparaciones no planificadas o post hoc, hay técnicas encaminadas a reducir el tamaño de la región crítica, que controlan el error PF mediante el ajuste del valor alfa. Entre las más importantes se encuentran, junto con la de Fisher, las pruebas de Duncan, Tukey, Dunnett y Newman-Keuls.
Análisis de tendencias
Concepto
Una de las técnicas de análisis de tendencias es el método de polinomios ortogonales. En virtud de ese procedimiento, es posible dividir la variación o Suma de Cuadrados de tratamientos en una serie de componentes independientes de tendencia como, por ejemplo, lineal, cuadrado, cúbico, etc. Cada componente ortogonal aporta información particular sobre una clase de tendencia o relación entre la variable independiente y la variable dependiente. Al mismo tiempo, este procedimiento permite verificar estadísticamente la significación de cada componente de tendencia.
Análisis de tendencias: Descomposición polinómica ortogonal de la Suma de Cuadrados “Entre
tratamientos” o “Entre grupos”.
Fuentes de variación Grados de libertad Sumas de cuadrados
Entre Tratamientos k-1 SCA
Lineal 1 ScLin
Cuadrático 1 SCCuad
Cúbico 1 SCCub
……….……………………………………………………………
k-1 1 SCCk-1
Coeficientes de los contrastes polinómicos ortogonales
Coeficientes de polinomios ortogonales, k = 4 Coeficientes
Contraste a1 a2 a3 a4 Σa²j
Lineal -3 -1 1 3 20 Cuadrado 1 -1 -1 1 4 Cúbico -1 3 -3 1 20
Cálculo de las suma de cuadrados
El cálculo de la Suma de Cuadrados cada uno de estos componentes se obtiene de la expresión,
nC²
SCC = --------
Σa²j
Resultado del análisis
Componente SC g.l. CM F p
Lineal 90.25 1 90.25 62.24 <0.05
Cuadrado 1.25 1 1.25 0.86 >0.05
Cúbico 0.25 1 0.25 0.17 >0.05
Error 23.20 16 1.45
F0.95(1/16) = 4.49
Ventajas y desventajas
El diseño multigrupo completamente al azar permite examinar, desde una perspectiva amplia, las distintas estrategias de análisis aplicables a los datos experimentales. En primer lugar, el análisis unidimensional de la Variancia o indicador general de variación de las medias de los grupos. ..//..
En segundo lugar, las estrategias que prueban las microhipótesis de investigación; es decir, las comparaciones múltiples entre medias. Por último, para aquellas situaciones donde la variable independiente es cuantitativa y con valores equidistantes, el análisis de tendencias mediante el procedimiento de modelación polinómica ortogonal.
GRÁFICO DE MEDIAS
0
1
2
3
4
5
6
7
8
9
A1 A2 A3 A4
V.D.