Análisis Factorial Confirmatorio

download Análisis Factorial Confirmatorio

of 55

Transcript of Análisis Factorial Confirmatorio

  • 5/24/2018 An lisis Factorial Confirmatorio

    1/

    Doctorado Interuniversitario en MarketingAnlisis de Datos Avanzado

    ANLISIS FACTORIAL CONFIRMATORIO

    Apuntes y ejercicios

    Dr. Joaquin Aldas-Manzano

    Departamento de Comercializacin e Investigacin de Mercados Departament de Comercialitzaci i Investigaci de Mercats

  • 5/24/2018 An lisis Factorial Confirmatorio

    2/

    2

    Nota importante

    Los presentes apuntes forman parte del borrador del libro de Joaqun

    Alds y Ezequiel Uriel Anlisis Multivariante Aplicado que ser

    prximamente publicado por la editorial Thomson-Paraninfo. Por lo

    tanto, como tal borrador pueden existir erratas, siendo bienvenidos todoslos comentarios que las detecten y sugerencias sobre la mejora del

    captulo.

  • 5/24/2018 An lisis Factorial Confirmatorio

    3/

    3

    13ECUACIONES ESTRUCTURALES:

    ANLISIS FACTORIAL CONFIRMATORIO

    13.1 INTRODUCCIN

    El presente captulo es el primero de los dos captulos dedicados a ecuaciones estructurales.

    Adems de su inters en si mismo, facilita el trnsito al segundo captulo dedicado a modelos

    de estructuras de covarianza. Por qu el desarrollo del Anlisis Factorial Confirmatorio

    (AFC) facilita este trnsito? Bsicamente por dos razones. En primer lugar, porque su

    desarrollo se sigue con facilidad una vez el lector ha visto el captulo dedicado al anlisis

    factorial exploratorio y, en segundo lugar, porque la herramienta estadstica que lo resuelve

    es, esencialmente, la misma que emplearemos en los modelos de estructuras de covarianza.

    Muchos son los textos que el lector puede utilizar para profundizar en el anlisis del AFC que,

    en su gran mayora, tambin incluyen el desarrollo de los modelos de estructuras de

    covarianza. La eleccin de uno u otro suele ir ligada a la decisin acerca del programa

    estadstico que se prefiera utilizar. El SPSS inclua, hasta hechas recientes, el programaLISREL (Jreskog y Srbom, 1989) como mdulo opcional, convirtindolo en el de uso ms

    extendido. Si se opta por este programa, Sharma (1996) ofrece una buena introduccin con

    salidas comentadas o, si se prefiere un texto con mayor profundidad, puede recurrirse a Long

    (1983). Si, por el contrario, el lector opta por el EQS (Bentler, 1995), con un sistema de

    notacin mucho ms intuitivo en nuestra opinin (Bentler y Weeks, 1980), una buena gua es,

    sin duda, el texto de Byrne (1994). Una buena alternativa para aquellos que no se atreven a

    decidirse por uno u otro tipo de software, es recurrir al mdulo CALIS del SAS, que permite

    utilizar alternativamente cualquiera de las dos notaciones. En este caso, Hatcher (1994) es un

    buen texto. Finalmente, puede recurrirse a Ullman (1996) para una aproximacin a esta

    tcnica con salidas comparadas de todos los programas mencionados.

  • 5/24/2018 An lisis Factorial Confirmatorio

    4/

    4

    Dado que, como hemos indicado, la notacin de Jreskog y Srbon (1989) es la ms

    conocida, ser la que utilizaremos en el desarrollo del tema. Sin embargo, llegado el

    momento, presentaremos tambin la de Bentler y Weeks (1980) y demostraremos la

    equivalencia de ambas.

    Para introducirnos en el AFC es necesario presentar una serie de convenciones y trminos noutilizados hasta el momento. Lo haremos basndonos en un ejemplo que nos servir para ver

    la diferencia entre el AFC y el anlisis factorial exploratorio y los modelos de estructuras de

    covarianza que analizaremos en el prximo tema.

    CASO13.1 Componentes de la inteligencia

    Supongamos que un investigador ha recogido las notas de 275 alumnos de secundaria en seis

    asignaturas: Lengua (L), Filosofa (FSF), Historia (H), Matemticas (M), Fsica (FSC) y

    Qumica (Q). En el cuadro 13.1 se recogen las correlaciones entre estas seis variables. Nuestro

    investigador se plantea una cuestin a la que quiere dar respuesta. Asumiendo que las notas de

    un alumno miden su inteligencia (I), deseara saber si estas se agrupan en un nico factor (la

    inteligencia) o, por el contrario, miden distintos aspectos de la misma, por ejemplo, lainteligencia cuantitativa (IQ) y la inteligencia verbal (IV).

    Cuadro 13.1 Matriz de correlaciones entre las notas de los 275 estudiantes

    L FSF H M FSC Q

    X1=L 1X2=FSF 0,493 1 X3=H 0,401 0,314 1 X4=M 0,278 0,347 0,147 1 X5=FSC 0,317 0,318 0,183 0,587 1 X6=Q 0,284 0,327 0,179 0,463 0,453 1

    Si suponemos que el investigador no tiene una hiptesis a prioriacerca de qu estructura es laadecuada (un nico componente de la inteligencia o dos), decidir efectuar un anlisis

    factorial exploratorio para ver cuntos factores obtiene. Su planteamiento aparece recogido

    grficamente en la figura 13.1. Las variables observadaso manifiestas o indicadores, es decir,aquellas que se han medido (las notas en los alumnos en nuestro ejemplo), aparecen insertadas

    en un cuadrado y se denotan comoX1,...,X6. Las variables latentes, esto es las no observables

    o subyacentes (por ejemplo, los factores, como la inteligencia en general, o la inteligenciaverbal o cuantitativa en particular), aparecen rodeadas por crculos. Una flecha recta desde

    una variable latente a una variable observada, indica una relacin de causalidad. As el factor

    1 est causando las notas de los alumnos en las seis asignaturas, es decir, la mayor omenor inteligencia cuantitativa provoca que los alumnos tengan notas diferentes. El trmino

    que aparece en cada una de las relaciones causales o paths es el parmetro que mide laintensidad de la relacin, esto es, el trmino que denominamos carga factorial en una

    anlisis factorial exploratorio, o el coeficiente estandarizado asociado a una variable

    independiente en una regresin mltiple.

  • 5/24/2018 An lisis Factorial Confirmatorio

    5/

    5

    Figura 13.1 Modelo de anlisis factorial exploratorio

    x1 x2 x3 x4 x5 x6

    1 2 3 4 5 6

    1 2

    112131 41

    51

    61 12

    2232 425262

    12=21

    Las variables latentes son de dos tipos. Los mencionados factores comunes (), que soncomunes en cuanto que sus efectos son compartidos por ms de una variable observada, y los

    factores especficos o errores (). Como se comprueba en la figura 13.1, cada uno de estosfactores afecta solamente a una variable observada, y son errores aleatorios que se pueden

    haber producido en la medida de la variable observada. Finalmente, la flecha curva con dos

    puntas que une a los factores comunes, indica que estas variables estn correlacionadas con

    una intensidad 12.

    Planteados los convenios de representacin y los trminos empleados en el AFC que son

    comunes a los de los modelos de estructuras de covarianza, que se examinarn en el prximo

    tema, nos restara por sealar las diferencias del anlisis factorial confirmatorio con respecto

    al anlisis factorial exploratorio, examinado en el tema 12, o con respecto al modelo de

    estructuras de covarianza.

    Volviendo a nuestro ejemplo, el investigador quiere saber si las notas estn midiendo un

    nico componente de la inteligencia o, por el contrario, reflejan el efecto de varios

    componentes. Como l no tiene establecida una hiptesis a priori, su anlisis factorial ha decontemplar como plausibles todas las posibilidades. Un caso extremo consistira en que todas

    las variables carguen de forma significativa sobre un solo factor. Un caso intermedio, aunque

    puede haber otras muchas combinaciones, consistira en que un grupo de variables cargue

    significativamente sobre un factor y el resto de variables lo haga sobre un segundo factor. La

    figura 13.1 recoge todas las posibilidades y, en concreto, estos dos casos. En el primer caso,

    11, 21, ... , 61seran significativos, mientras que 12, 22, ... , 62no lo seran. En el segundocaso, 11, 21y 31 tendran un valor significativo y 41, 51, 61no (las notas en literatura,

    filosofa e historia cargan sobre un factor, inteligencia verbal, y no sobre el otro); por otraparte, 12, 22, 32tendran un valor no significativo, mientras que 42, 52, 62s (las notas en

  • 5/24/2018 An lisis Factorial Confirmatorio

    6/

    6

    matemticas, fsica y qumica cargan sobre un factor, la inteligencia cuantitativa). El

    investigador debe efectuar un anlisis factorial exploratorio con objeto de averiguar cul de

    las dos posibilidades (o cualquiera de las otras muchas que sugiere la figura 13.1) es ms

    verosmil de acuerdo con los datos.

    Ahora bien, el investigador basndose en estudios previos o en una revisin de la literaturaexistente, puede considerar la hiptesis, por ejemplo, de que no existe una medida global de la

    inteligencia sino dos tipos alternativos de la misma: inteligencia verbal (que explicara las

    calificaciones en lengua, filosofa e historia) e inteligencia cuantitativa (que explicara las

    obtenidas en matemticas, fsica y qumica). Si ste es el caso, el anlisis exploratorio ya no

    tiene sentido, ya que el investigador lo que pretende es confirmaro no la verosimilitud de suhiptesis. Su planteamiento aparece recogido ahora en la figura 13.2.

    El investigador puede plantearse otra hiptesis alternativa segn la cual, s existe una sola

    medida global de la inteligencia que, a su vez, causa la inteligencia verbal y la cualitativa

    (figura 13.3). Su misin consistira, ahora, en determinar cul de los dos modelos es ms

    verosmil de acuerdo con los datos. En este segundo caso, ha establecido una relacin decausalidad, no de correlacin, entre una o ms variables latentes. El modelo deja de ser un

    AFC para convertirse en un modelo de estructuras de covarianza. Ntese en la figura 13.3

    que, ahora, los factores 1y 2no son variables independientes (adems de salir una flechacausal de ellas, tambin la reciben), por lo que estn sujetos a un error de prediccin que se

    denomina perturbacin (disturbance) y que se suele denotar mediante la letra . Loscoeficientes de estospathse designan con la letra.

    Figura 13.2 Modelo de AFC

    x1 x2 x3 x4 x5 x6

    1 2 3 4 5 6

    1 2

    112131 42

    52 62

    12=21

    12=21 32=23 45=54 56=65

    13=31 46=64

  • 5/24/2018 An lisis Factorial Confirmatorio

    7/

    7

    Figura 13.3 Modelo de estructuras de covarianzas

    x1 x2 x3 x4 x5 x6

    1 2 3 4 5 6

    1 2

    1121 31 42

    52 62

    313 23

    1 2

    13.2 FORMALIZACIN MATEMTICA DEL AFC

    A partir del problema de AFC ilustrado en la figura 13.2, presentaremos a continuacin la

    formalizacin del mismo siguiendo la notacin de Jreskog y Srbom, (1989), tal y como la

    ofrece Long (1983). La relacin entre las variables observadas y las latentes de la figura 13.2,

    pueden expresarse:

    1 11 1 1

    2 21 1 2

    3 31 1 3

    4 42 2 4

    5 52 2 5

    6 62 2 6

    x

    x

    x

    x

    x

    x

    = +

    = +

    = +

    = +

    = +

    = +

    Si recurrimos a la notacin matricial, la anterior expresin adoptara la forma:

    01 11 1

    02 21 2

    03 31 31

    04 42 42

    05 52 5

    06 62 6

    x

    x

    x

    x

    x

    x

    = +

    o de manera compacta:

  • 5/24/2018 An lisis Factorial Confirmatorio

    8/5

    8

    = +x (13-1)donde, en general, xes un vector q1 que contiene las qvariables observadas, es un vector

    s1 que contiene los s factores comunes, es una matriz qs que contiene las cargasfactoriales de las variables latentes y es un vector q1 de los factores especficos o errores.Asumimos que el nmero de variables observadas ser siempre mayor que el de factorescomunes, o lo que es lo mismo que q>s.

    Tanto las variables latentes como las observadas de la expresin (13-1) vienen expresadas

    como desviaciones sobre la media, con lo que la esperanza de cada vector es otro vector de

    ceros:

    E(x)=0;E()=0yE()=0.Este desplazamiento respecto al origen, no afecta a las covarianzas entre las variables.

    Si denotamos como a la matriz de varianzas covarianzas entre las variables observadas(vector x), de acuerdo con 13.1, resulta que:

    ( ) ( )( )E E = =

    xx + + Teniendo en cuenta que la traspuesta de una suma de matrices es la suma de las traspuestas y

    que la traspuesta de un producto es el producto de las traspuestas en orden inverso, tenemos

    que:

    ( )( )[ ]E = + + y teniendo en cuenta la propiedad distributiva y calculando la esperanza:

    [ ]

    [ ] [ ] [ ] [ ]

    E

    E E E E

    = + + +

    = + + +

    Dado que la matriz no contiene variables aleatorias, al ser constantes los parmetrospoblacionales, se tiene que:

    [ ] [ ] [ ] [ ]E E E E = + + + (13-2)

    Si hacemos

    [ ]

    [ ]

    E

    E

    =

    =

    y asumimos que y estn incorrelacionados entre s, la expresin (13-2) puede escribirsedel siguiente modo:

  • 5/24/2018 An lisis Factorial Confirmatorio

    9/

    9

    += (13-3)Es muy importante, para desarrollos posteriores, analizar el contenido de la expresin (13-3).

    As, en el primer miembro aparece una matriz que contiene q(q+1)/2 varianzas y covarianzasdistintas de las variables observadas1. En el segundo miembro aparecen qs cargas factoriales

    (), s(s+1)/2 varianzas y covarianzas entre los factores comunes ()y q(q+1)/2 varianzas ycovarianzas entre los factores especficos (). Por lo tanto, la expresin (13-3) expresa losq(q+1)/2 elementos distintos de en funcin de [qs+s(s+1)/2+q(q+1)/2] parmetrosdesconocidos de las matrices , y . As pues, los parmetros que se debern estimaraparecen vinculados mediante la expresin (13-3) a los valores de las varianzas y covarianzas

    poblacionales de las variables observadas.

    En el ejemplo ilustrado en la figura 13.2 se introducen restricciones adicionales sobre las

    cargas factoriales y se asume que 1, 2y3 estn incorrelacionadas con 4, 5y6. Teniendoen cuenta estas restricciones y dado que existen q=6 variables observadas y s=2 factores

    comunes, las matrices que contienen los parmetros a estimar adoptarn la forma siguiente:

    11 12 13

    21 22 23

    11 12 31 32 33

    12 22 44 45 46

    54 55 56

    64 65 66

    011 0 0 00 0 0 021

    0 0 0 031; ;

    0 0 0 0420 0 00 520 0 00 62

    = = =

    donde los subrayados indican que esos elementos de las matrices y son 0 por laespecificacin concreta que tiene el modelo que se quiere contrastar. Lgicamente, si el

    investigador asumiera otras hiptesis la configuracin de estas matrices sera distinta. De

    hecho, tal como hemos comentado anteriormente, en general, la matriz tiene 6(6+1)/2 = 21elementos distintos a estimar (el tringulo inferior), mientras que en nuestro caso, dado el

    modelo especificado, slo hay 12.

    A qu se reduce, a grandes rasgos, el mtodo AFC? La finalidad de este mtodo es obtener

    estimaciones de las matrices , y que hagan que la matriz de varianzas y covarianzaspoblacional estimada obtenida a partir de ellas, sea lo ms parecida posible a la matriz devarianzas y covarianzas muestral que se obtiene a partir de los valores muestrales de las

    variables observadas. Pero para poder entrar en el procedimiento de estimacin, es necesarioabordar previamente el problema de la identificacinque se plantea en el mtodo AFC.

    13.3 IDENTIFICACIN DEL MODELO EN EL AFC

    En el epgrafe anterior, hemos visto que en el mtodo AFC disponemos de una serie de datos

    (las varianzas y covarianzas muestrales de las variables observadas) y con ellos hemos de

    estimar una serie de parmetros (cargas factoriales, varianzas y covarianzas de los factores

    comunes, y varianzas y covarianzas de los factores especficos o errores). Al igual que ocurre

    1 Para determinar el nmero de varianzas y covarianzas distintas, tngase en cuenta que es una matriz qqsimtrica

  • 5/24/2018 An lisis Factorial Confirmatorio

    10

    10

    con un sistema de ecuaciones lineales, podemos disponer en principio de ms ecuaciones que

    incgnitas, del mismo nmero o de mayor nmero de incgnitas que ecuaciones. Pues bien, la

    identificacin del modelo en el AFC hace referencia, precisamente, a la cuestin de si los

    parmetros del modelo pueden o no ser determinados de forma nica.

    En palabras de Long (1983), si se intenta estimar un modelo que no est identificado, losresultados que se obtendrn sern estimaciones arbitrarias de los parmetros lo que

    desembocar en interpretaciones carentes de sentido. En el apndice A13.1 se demuestra

    cmo, si no se imponen restricciones a los parmetros a estimar, necesariamente habr un

    nmero infinito de soluciones posibles para los mismos.

    Qu tipo de restricciones pueden imponerse a los parmetros? Por ejemplo, si una carga

    factorial ij de la matriz se fija a 0, estaremos indicando que el factor j no afectacausalmente a la variable observada xi. Si fijamos a 0 el elemento ij de la matriz ,estaremos sealando que los factores iy jestn incorrelacionados. Si todos los elementos dela matriz fuera de la diagonal se fijan a 0, los factores sern ortogonales (como ocurre en elanlisis factorial exploratorio, por ejemplo). Restricciones similares se pueden imponer a los

    elementos de la matriz .Long (1983) seala que existen una serie de condiciones para que el modelo est identificado:

    necesarias (si no se dan, el modelo no est identificado), suficientes (si se dan el modelo est

    identificado, pero si no se dan no tiene porqu no estarlo) y necesarias y suficientes (si se dan

    el modelo est identificado y si no se dan est no identificado). No hay acuerdo entre la

    literatura acerca de si existen o no las condiciones necesarias y suficientes. Jreskog y

    Srbom (1989) sealan que el anlisis de la llamada matriz de informacin, construida a partirde la matriz de varianzas y covarianzas de los estimadores de los parmetros, puede servir

    para establecer si el modelo est identificado. Estos autores sealan que si la matriz deinformacin es definida positiva es casi seguro que el modelo est identificado. Por elcontrario, si la matriz de informacin es singular, el modelo no est identificado. Las

    cursivas son de Long (1983) y las introduce porque indica que, dado que los programas

    existentes verifican esta condicin, si no hacen advertencias acerca de problemas en esta

    matriz, estaramos ante un buen indicador de que el modelo est identificado pero, en su

    opinin, an siendo la matriz definida positiva es posible, aunque improbable, que el modelo

    no est identificado. Otros autores, como Hatcher (1994) y Ullman (1996) confan tambin en

    las advertencias de los programas como indicadores de no identificacin. En general, la

    mayora de textos optan por recomendar que se comprueben una serie de condiciones

    necesarias que suelen demostrarse como lo suficientemente exigentes para garantizar la

    identificacin del modelo. Siguiendo a Hatcher (1994) y Ullman (1996), el investigadordebera centrarse en las siguientes tareas:

    1. Comparar el nmero de datos con el nmero de parmetros que han de estimarse. Losdatos son siempre las varianzas-covarianzas muestrales, y hemos visto que existen

    q(q+1)/2. Como el nmero de parmetros a estimar es qs+[s(s+1)/2]+[q(q+1)/2], elmodelo estar sin identificar si no se imponen, al menos, qs+[s(s+1)/2] restricciones.Decimos al menos porque slo si hay ms datos que parmetros, el modelo est

    sobreidentificado (caso particular de identificacin), lo que hace que, al existir grados

    de libertad, ser posible la aceptacin o el rechazo del modelo.

    2. Establecer una escala para los factores comunes. Esto se consigue fijando la varianzade cada factor comn a 1 o el coeficiente de regresin (carga factorial) de una de las

    variables observadas que cargan sobre cada factor a 1. Si esto no se hace se produce el

  • 5/24/2018 An lisis Factorial Confirmatorio

    11

    11

    denominado problema de indeterminacin entre la varianza y las cargas factoriales, es

    decir, es imposible distinguir entre los casos en los que un factor tiene una varianza

    grande y las cargas son pequeas y el caso en que las varianzas son pequeas y las

    cargas altas.

    3. Asegurar la identificabilidad de la parte del modelo que contiene la relacin entre lasvariables observadas y los factores. Para ello debe analizarse el nmero de factores yel nmero de variables observadas que cargan sobre cada factor. Si solo hay un factor,

    el modelo puede estar identificado si el factor tiene al menos tres variables con cargas

    no nulas sobre l. Si hay dos o ms factores, examnese el nmero de variables

    observadas de cada factor. Si cada factor tiene tres o ms variables que cargan sobre

    l, el modelo puede estar identificado si los errores asociados con los indicadores no

    estn correlacionados entre s, cada variable carga slo sobre un factor y los factores

    pueden covariar entre ellos. Si slo hay dos indicadores por factor, el modelo puede

    estar indentificado si los errores asociados con cada indicador no estn

    correlacionados, cada indicador carga slo sobre un factor y ninguna de las

    covarianzas entre los factores es igual a cero.

    4. Fijar arbitrariamente el coeficiente de regresin del trmino de error al valor 12.La aplicacin de las condiciones expuestas al modelo de la figura 13.2, que nos viene

    sirviendo de ejemplo, se ilustran en figura 13.4.

    Figura 13.4 Modelo de AFC identificado

    x1 x2 x3 x4 x5 x6

    1*

    1*

    1=11

    21=*31=*

    1=42

    52=*

    12=21=*

    0=12=21 0=32=23 0=45=540=56=65

    2*

    62=*

    1 1 1 1 1 1

    2* 3* 4* 5* 6*

    0=13=31 0=46=64

    2En el modelo (13-1), como puede verse, los coeficientes correspondientes al trmino de error () son 1. Sinembargo, en algunos programas de ordenador para tratamiento del AFC se permite fijar los coeficientes avalores distintos de 1.

  • 5/24/2018 An lisis Factorial Confirmatorio

    12

    12

    En primer lugar, recordemos que disponemos para estimar el modelo sealado de

    6(6+1)/2=21 datos, que se corresponden con las varianzas covarianzas de las variables

    observadas. Tenemos que estimar, en principio, 62+(23/2)+(67/2)=36 parmetros. Estosparmetros son 12 coeficientes de regresin (cargas factoriales), la varianza de los 2 factores

    comunes, la covarianza entre ellos, 6 coeficientes de regresin entre las variables observadas

    y los factores especficos, las 6 varianzas de los factores especficos y las 15 covarianzas entreesos factores especficos.

    Veamos en qu medida las condiciones de determinacin anteriores influyen en esta situacin.

    En primer lugar, resolvemos el problema del establecimiento de la escala de los factores

    comunes. Obsrvese en la figura 13.4 como se ha fijado a 1 el coeficiente de regresin entre la

    variable x1 y el primer factor y ente la variable x4 y el segundo factor. Como indicbamospodramos haber fijado a 1 la varianza de ambos factores y dejar libres los mencionados

    parmetros. Ntese que hemos sealado con un * aquellos parmetros que sigue siendo

    necesario estimar tras la identificacin del modelo.

    A continuacin aseguramos la identificabilidad de la parte del modelo que contiene la relacin

    ente las variables observadas y los factores. En nuestro caso tenemos dos factores y tres

    variables observadas sobre cada uno de ellos. Entonces, tal como sealamos con anterioridad,

    se han adoptado los supuestos de que los errores asociados con los indicadores () no estancorrelacionados entre s (es decir, las covarianzas ijse han hecho 0, como se observa en lafigura 13.4), y de que cada variable carga slo sobre un factor. Por otra parte, s se ha

    permitido que las covarianzas entre los factores sean no nulas (las ijestn marcadas con *para ser estimadas).

    Finalmente, los coeficientes de regresin entre las variables observadas y los trminos de

    error se han fijado arbitrariamente a 1.

    Tras haber efectuado estas restricciones, cabe preguntarse el modelo est identificado, o

    sobreidentificado, y, en consecuencia, puede ser sometido a contraste? En otras palabras,

    hay ms datos que parmetros a estimar? O, anlogamente, disponemos de grados de

    libertad suficientes? Los datos son, segn hemos visto, 21, mientras que los parmetros a

    estimar son los siguientes:

    1 covarianza entre los factores comunes 2 varianzas de los factores comunes 4 coeficientes de regresin entre las variables observadas y los factores comunes. 6 varianzas de los factores especficos (errores).

    Es decir, hay 13 parmetros a estimar, con lo que tenemos 8 grados de libertad, dado que el

    nmero de datos es 21. Por tanto, el modelo puede someterse a contraste. A continuacin

    aprovecharemos el ejemplo para presentar la sintaxis que nos permite estimarlo mediante uno

    de los programas que indicbamos al comienzo del captulo, concretamente, el EQS.

    El EQS se basa en la notacin de Bentler y Weeks (1980) que se limita a distinguir entre

    variables dependientes e independientes en el AFC. Una variable ser independiente cuando

    de ella slo salga una flecha causal y ser dependiente si recibe alguna. Este programa denota

    como Via las variables observadas, como Fia los factores comunes y comoEia los factores

  • 5/24/2018 An lisis Factorial Confirmatorio

    13

    13

    especficos. Si un parmetro se ha de estimar, aparece sealado con un asterisco en la

    ecuacin correspondiente y si se ha fijado que toma un valor determinado, se indica

    expresamente. Las covarianzas, de no especificarse, se suponen que son nulas.

    El cuadro 13.2 muestra la sintaxis del EQS para estimar el modelo de AFC, tal y como se ha

    especificado en la figura 13.4.

    Cuadro 13.2 Sintaxis de EQS para el problema de AFC

    Bajo el apartado de /SPECIFICATIONS se refleja la siguiente informacin: el nmero de

    casos, (CASE=275, tal y como se indic en el cuadro 13.1 que recoga los datos originales);

    numero de variables observadas (VAR=6); la seleccin de mxima verosimilitud como

    mtodo de estimacin3 (ME=ML); indicacin de que la matriz de datos suministrada es una

    matriz de correlaciones (MA=COR); e indicacin de que el anlisis se efecte sobre la matriz

    de varianzas covarianzas (ANAL=COV). Estas dos ltimas instrucciones tienen dos

    implicaciones: en primer lugar, es necesario suministrar al programa la matriz de

    3 En el epgrafe siguiente se examinarn los mtodos de estimacin

    /TITLE

    CFA INTELIGENCIA VERBAL Y CUANTITATIVA

    /SPECIFICATIONS

    CASE=275; VAR=6; ME=ML; MA=COR; ANAL=COV;

    /MATRIX

    1.000

    0.493 1.000

    0.401 0.314 1.000

    0.278 0.347 0.147 1.000

    0.317 0.318 0.183 0.587 1.000

    0.284 0.327 0.179 0.463 0.453 1.000

    /STANDARD DEVIATIONS

    1.0900 0.5900 0.9800 1.1000 0.4100 1.1100

    /LABELS

    V1=L; V2=FSF; V3=H; V4=M; V5=FSC; V6=Q;

    F1=IV; F2=IQ;

    /EQUATIONS

    V1= F1+E1;

    V2=*F1+E2;

    V3=*F1+E3;

    V4= F2+E4;

    V5=*F2+E5;V6=*F2+E6;

    /VARIANCES

    F1 TO F2=*;

    E1 TO E6=*;

    /PRINT

    EFFECT=YES;

    FIT=ALL;

    /COVARIANCES

    F1 TO F2=*;

    /LMTEST

    /WTEST

    /END

  • 5/24/2018 An lisis Factorial Confirmatorio

    14

    14

    correlaciones, lo que se hace bajo el apartado /MATRIZ y, en segundo lugar, para que el EQS

    realice el anlisis en trminos de matriz de varianzas covarianzas es necesario ofrecerle las

    desviaciones tpicas de las variables observadas (/STANDARD DEVIATIONS).

    El planteamiento de las ecuaciones se hace en el apartado /EQUATIONS. Puede comprobarse

    que las variables observadas son dependientes siendo explicadas por los factores comunes (Fi)y por los especficos (Ei). As, la primera ecuacin:

    V1=F1+E1

    La anterior ecuacin recoge la particularidad de que el parmetro de F1 (1, en la notacinanterior) es 1, porque se ha fijado a este valor tal y como se ve en la figura 13.4 (11=1) y lomismo ocurre con el parmetro del trmino de error E1. En cambio, en la segunda ecuacin:

    V2=*F1+E2

    el coeficiente del trmino de error sigue estando fijado a 1, pero es necesario estimar el

    parmetro de F1 (21=*).

    Todas las varianzas, tanto de los factores especficos como de los comunes han de estimarse,

    tal como indica la instruccin /VARIANCES y lo mismo ocurre con las covarianzas ente los

    factores comunes F1 y F2 (as lo indica la instruccin / COVARIANCES). As pues, queda

    comprobada la sencillez de la sintaxis del programa cuando seguimos la notacin de Bentler y

    Weeks (1980), dado que todo se reduce a distinguir entre variables dependientes e

    independientes, lo que permite deducir de manera natural las ecuaciones. Las dos ltimas

    instrucciones (/LMTEST y /WTEST) las analizaremos ms adelante. En el epgrafe siguiente,

    que dedicamos a la estimacin del modelo, comentaremos las salidas resultantes de laejecucin del programa EQS con la sintaxis anterior.

  • 5/24/2018 An lisis Factorial Confirmatorio

    15

    15

    13.4 ESTIMACIN DE MODELOS EN EL AFC

    A partir de lo descrito, y siguiendo a Sharma (1996), el proceso de estimacin del AFC puede

    sintetizarse en los dos pasos siguientes:

    1) Dada la matriz de varianzas covarianzas muestrales (S), se estiman los parmetrosdel modelo factorial hipotetizado.

    2) Se determina el ajuste del modelo hipotetizado. Esto es, se determina en qumedida la matriz de varianzas covarianzas estimada ( ) est prxima a la matriz devarianzas covarianzas muestral S.

    Presentaremos a continuacin algunos de los mtodos de estimacin disponibles. Profundizar

    en todos ellos va ms all del alcance de este libro, y recomendamos recurrir a Bentler (1995)

    para ello. Sin embargo, se ofrecern los fundamentos bsicos de cada uno de ellos.

    Como hemos sealado, el investigador parte de una matriz de varianzas y covarianzas

    muestral S. Como ya se ha indicado, la matriz de varianzas y covarianzas poblacional, condicionada al modelo (13-1), est relacionada con los parmetros poblacionales por laconocida expresin (13-3):

    = + Estimar el modelo, supone encontrar valores, a partir de los datos muestrales, para las

    matrices anteriores (que denotamos con ^) que cumplan las restricciones impuestas en el

    proceso de identificacin y que hagan que la matriz de varianzas y covarianzas estimada

    mediante la expresin siguiente, sea lo ms parecida posible a S:

    = + (13-4)Long (1983) ilustra el proceso de estimacin como sigue. Inicialmente existirn infinitas

    matrices estimadas de , y que satisfagan la expresin anterior, pero habr que rechazartodas aquellas soluciones que no cumplan las restricciones que se han impuesto en la

    identificacin del modelo. Llamemos genricamente *, * y * a las matrices que scumplen las restricciones. Esas matrices permiten obtener una estimacin de la matriz de

    varianzas covarianzas poblacional * mediante (13-4). Si esta ltima matriz est prxima a S,entonces las estimaciones de los parmetros contenidas en *, *y *seran razonables en elsentido de ser consistentes con los datos de S.

    Necesitamos una funcin, a la que denominamos una funcin de ajuste, que nos indique enqu medida * est prxima a S. Long (1983) denota a estas funciones de ajuste con laexpresin F(S;*) y estn definidas para todas las matrices que cumplen las restriccionesmarcadas en la identificacin del modelo. Si entre dos matrices que cumplen esta condicin se

    verifica queF(S; 1 )

  • 5/24/2018 An lisis Factorial Confirmatorio

    16

    16

    estimacin por la teora de la distribucin elptica y estimacin con libre distribucin

    asinttica.

    13.4.1 Estimacin por mnimos cuadrados no ponderados

    La estimacin por mnimos cuadrados no ponderados ULS (Unweighted Least Squares) tomacomo estimadores a los valores que minimizan la siguiente funcin de ajuste:

    ( ) ( )2*1

    2ULSF tr =

    S; (13-5)donde por trindicamos la traza de la matriz resultante de la operacin subsiguiente, esto es, lasuma de los elementos de su diagonal. Long (1983) y Ullman (1996) indican que este mtodo

    tiene dos limitaciones que hacen que no sea muy utilizado. En primer lugar, no existen

    contrastes estadsticos asociados a este tipo de estimacin y, en segundo lugar, los

    estimadores dependen de la escala de medida de las variables observadas, esto es, no se

    alcanzara el mismo mnimo de (13-5) si las unidades del nivel de renta, por ejemplo,

    estuviera medida en pesetas que si lo estuviera en millones.

    Este mtodo tiene, sin embargo, algunas ventajas. As, no es necesario asumir ningn tipo de

    distribucin terica de las variables observadas, frente a la hiptesis de normalidad

    multivariante que asumen otros mtodos de estimacin. Por ello, si la violacin de esta

    hiptesis fuera muy evidente, algunos autores recomiendan recurrir a la estimacin por este

    mtodo, pero tomando como datos de partida la matriz de varianzas covarianzas estandarizada

    o matriz de correlaciones - para corregir el problema de la dependencia de las unidades de

    medida.

    13.4.2 Estimacin por mnimos cuadrados generalizados

    La estimacin por mnimos cuadrados generalizados GLS (Generalized Least Squares) sebasa en ponderar la matriz cuya traza se calcula en (13-5) mediante la inversa de matriz de

    varianzas covarianzas muestral, esto es:

    ( ) ( )2* * 11;

    2GLSF tr

    = S S S (13-6)

    13.4.3 Estimacin por mxima verosimilitud

    La estimacin por mxima verosimilitud ML (Maximum Likelihood) implica minimizar lasiguiente funcin de ajuste:

    ( ) ( )* * 1 *; log logMLF tr q = + S S S (13-7)donde toda la notacin es conocida, salvo q que es el nmero de variables observadas y elhecho de denotar como | | al determinante de la matriz de referencia. Como seala Long

    (1983) cuanto ms se aproximen las matrices Sy *, ms se aproximar el producto S*1a lamatriz identidad qq. Como la traza de esa matriz identidad es la suma de los qunos de la

  • 5/24/2018 An lisis Factorial Confirmatorio

    17

    17

    diagonal (o sea, q), el primer trmino de (13-7) se aproximar a qcuando las matrices estnprximas, compensndose con el trmino q de (13-7). Por otra parte, la diferencia de los

    logaritmos de los determinantes de Sy * tender a 0, dado que, cuando las matrices estnprximas, tambin lo estarn sus determinantes. De esta forma, cuando las matrices sean

    iguales la funcin de ajuste ser cero.

    13.4.4 Estimacin por la teora de la distribucin elptica

    La estimacin EDT (Elliptical Distribution Theory) se basa en la distribucin de probabilidadde este nombre. La distribucin normal multivariante es un caso particular de esta familia conparmetro de curtosis4igual a cero. En este caso, la funcin a minimizar adopta la forma:

    ( ) ( ) ( ) ( )2 21* * 1 * 11; 1

    2EDTF tr tr

    = + S S W S W (13-8)

    siendo y funciones de curtosis y Wcualquier estimador consistente de .

    13.4.5 Estimacin con libre distribucin asinttica

    La estimacin ADF (Asymptotically Distribution Free) minimiza una funcin definidamediante la siguiente expresin:

    ( ) ( )[ ] ( )[ ]* 1;ADFF = S s W s (13-9)donde s es el vector de datos, es decir, la matriz de varianzas covarianzas muestrales peroescrita en forma de un solo vector; es el la matriz de varianzas covarianzas estimada, denuevo puesta en forma de vector y donde con el trmino () se ha querido indicar que sederiva de los parmetros del modelo (coeficientes de regresin, varianzas y covarianzas). Wes una matriz que pondera las diferencias cuadrticas entre las matrices de varianzas y

    covarianzas muestrales y estimadas. En este caso, cada elemento de esa matriz se obtiene:

    ijkl ijkl ij kl w =

    siendo ijklmomentos de 4 orden y ijy kllas covarianzas.

    13.4.6 Comparacin de los distintos procedimientos de estimacin

    Resumimos a continuacin los resultados del trabajo de Hu, Bentler y Kano (1992), que

    analizaron mediante simulacin de Monte Carlo cmo se comportaban los distintos

    procedimientos de estimacin ante distintos tamaos muestrales, violacin de las hiptesis denormalidad y de independencia entre los trminos de error y los factores comunes.

    Estos autores encontraron que, en caso de que fuera razonable asumir la normalidad, el

    mtodo ML funcionaba mejor cuando el tamao muestral era superior a 500, mientras que

    4 El coeficiente de curtosis de una distribucin es igual al coeficiente estandarizado de cuarto orden menos 3.

  • 5/24/2018 An lisis Factorial Confirmatorio

    18/

    18

    para tamaos inferiores a esa cifra tena un mejor comportamiento el mtodo EDT.

    Finalmente, el mtodo ADF slo ofreca buenos resultados con muestras superiores a 2500

    casos.

    Cuando el supuesto de normalidad se violaba, los mtodos de ML y GLS solo daban buenos

    resultados con muestras superiores a 2500 casos, aunque el GLS funcionaba algo mejor que elML en muestras inferiores. Pese a no adoptar el supuesto de normalidad, el mtodo ADFtampoco daba buenos resultados con muestras inferiores a 2500 casos.

    Cuando se produce una violacin del supuesto de independencia entre los trminos de error y

    los factores comunes, los mtodos de ML y GLS funcionan muy mal, y tambin el ADF salvoque la muestra fuera superior a 2500 casos. En cambio, el EDT funcionaba significativamente

    mejor que los dems.

    A la luz de lo expuesto, Ullman (1996) recomienda:

    Los mtodos de ML y GLS son la mejor opcin con pequeas muestras siempre quesea plausible la asuncin de normalidad e independencia.

    En el caso en que ambos supuestos no parezcan razonables, se recomienda recurrir a laestimacin ML denominada escalada. Una descripcin de este procedimiento se

    encuentra en Bentler (1980) y es una opcin de estimacin del EQS.

    Veamos, a modo de ilustracin, el resultado de estimar mediante mxima verosimilitud las

    matrices de (13-4). Para facilitar la familiarizacin con el EQS se ha seleccionado la parte deloutput resultante de aplicar la sintaxis recogida en el cuadro 13.2 que contiene esta

    informacin.

    En primer lugar, el programa ofrece la matriz Sde varianzas covarianzas muestrales (cuadro13.3). Como se seal al comentar la sintaxis, al programa se le ha suministrado una matriz decorrelaciones y las desviaciones tpicas de las variables observadas. A partir de esta

    informacin el programa calcula la matriz de varianzas covarianzas muestral.

    Cuadro 13.3 Matriz S de varianzas covarianzas muestrales

    La matriz , que contiene los coeficientes de regresin entre las variables observadas y losfactores comunes, se obtiene directamente de las ecuaciones que el EQS denomina ecuacionesde medida y que se recogen en el cuadro 13.4. En estas ecuaciones aparecen tambin losestadsticos para contrastes de significatividad de cada coeficiente, as como los errores

    estndar, cuya interpretacin se ofrecer ms adelante.

    L FSF H M FSC Q

    V 1 V 2 V 3 V 4 V 5 V 6

    L V 1 1.188

    FSF V 2 0.317 0.348

    H V 3 0.428 0.182 0.960

    M V 4 0.333 0.225 0.158 1.210

    FSC V 5 0.142 0.077 0.074 0.265 0.168

    Q V 6 0.344 0.214 0.195 0.565 0.206 1.232

  • 5/24/2018 An lisis Factorial Confirmatorio

    19

    19

    De este cuadro se deduce directamente que la estimacin de es la siguiente5:1 0

    0,509 0

    0,604 00 1

    0 0,373

    0 0,817

    =

    Cuadro 13.4 Matriz de coeficientes de regresin

    La estimacin de (matriz de varianzas covarianzas de los factores comunes) apareceseparada en dos elementos de la salida del EQS (ambas recogidas en el cuadro 13.5):

    varianzas entre las variables independientes y covarianzas entre las variables

    independientes. De esta salida se obtiene que la estimacin de la mencionada matriz es:

    0,636 0,3880,388 0,698

    =

    Cuadro 13.5 Matriz estimada de varianzas covarianzas entre factores comunes

    5Los subrayados indican que ese parmetro se fijo al valor sealado durante la identificacin del modelo.

    MEASUREMENT EQUATIONS WITH STANDARD ERRORS AND TEST STATISTICS

    L =V1 = 1.000 F1 + 1.000 E1

    FSF =V2 = .509*F1 + 1.000 E2

    .068

    7.467

    H =V3 = .604*F1 + 1.000 E3

    .096

    6.319

    M =V4 = 1.000 F2 + 1.000 E4

    FSC =V5 = .373*F2 + 1.000 E5

    .039

    9.467

    Q =V6 = .817*F2 + 1.000 E6.096

    8.552

  • 5/24/2018 An lisis Factorial Confirmatorio

    20

    20

    Finalmente resta por obtener la estimacin de la matriz , que contiene las varianzas ycovarianzas entre los factores especficos o trminos de error. Si se observa la figura 13.4, se

    comprueba que, durante la identificacin del modelo, todas las covarianzas se fijaron a 0

    (como se indica con un subrayado en la matriz que se muestra a continuacin), por lo que slo

    se han estimado las varianzas. El cuadro 13.6 ofrece la informacin que nos permite obtener

    la estimacin de la matriz :

    0,552 0 0 0 0 0

    0 0,183 0 0 0 0

    0 0 0,728 0 0 0

    0 0 0 0,512 0 0

    0 0 0 0 0,071 0

    0 0 0 0 0 0,767

    =

    Basta operar matricialmente de acuerdo con la expresin (13-4) para obtener la estimacin de

    la matriz de varianzas covarianzas poblacional (el EQS no la ofrece):

    1,188

    0,324 0,348

    0, 384 0,196 0, 960

    0, 388 0,197 0, 234 1, 210

    0,145 0, 074 0, 087 0, 260 0,168

    0,317 0,161 0,191 0,570 0, 213 1, 232

    =

    (13-10)

    VARIANCES OF INDEPENDENT VARIABLES

    ----------------------------------

    V F

    --- ---

    I F1 - IV .636*I

    I .117 I

    I 5.443 II I

    I F2 - IQ .698*I

    I .112 I

    I 6.244 I

    I I

    COVARIANCES AMONG INDEPENDENT VARIABLES

    ---------------------------------------

    V F

    --- ---

    I F2 - IQ .388*I

    I F1 - IV .068 I

    I 5.712 I

    I I

  • 5/24/2018 An lisis Factorial Confirmatorio

    21

    21

    Cuadro 13.6 Matriz estimada de varianzas covarianzas entre factores especficosLa diferencia entre la matriz de varianzas covarianzas muestral Sy la matriz de varianzas ycovarianzas poblacional estimada recogida en (13-10) es la denominada matriz residual de

    covarianzas. Esta matriz nos indica en qu medida el modelo ha sido capaz de ajustarse a los

    datos. Para que el ajuste sea bueno, los valores de cada uno de sus elementos deben serpequeos. El EQS ofrece esta matriz tal y como la recogemos en el cuadro 13.7.

    Cuadro 13.7 Matriz residual de varianzas covarianzas

    13.5 BONDAD DE AJUSTE DEL MODELO ESTIMADO

    Antes de pasar a interpretar los resultados del anlisis factorial confirmatorio que se ha

    efectuado, es necesario determinar hasta qu punto el modelo asumido se ajusta a los datosmuestrales. Si detectramos problemas de ajuste, sera necesario plantear algn tipo de

    VARIANCES OF INDEPENDENT VARIABLES

    ----------------------------------

    E D

    --- ---

    E1 - L .552*I I

    .088 I I

    6.256 I I

    I I

    E2 - FSF .183*I I

    .025 I I

    7.294 I I

    I I

    E3 - H .728*I I

    .071 I I

    10.281 I I

    I I

    E4 - M .512*I I

    .075 I I

    6.828 I I

    I I

    E5 - FSC .071*I I

    .010 I I6.807 I I

    I I

    E6 - Q .767*I I

    .079 I I

    9.655 I I

    I I

    RESIDUAL COVARIANCE MATRIX (S-SIGMA) :

    L FSF H M FSC Q

    V 1 V 2 V 3 V 4 V 5 V 6

    L V 1 0.000

    FSF V 2 -0.007 0.000

    H V 3 0.044 -0.014 0.000

    M V 4 -0.055 0.028 -0.076 0.000

    FSC V 5 -0.003 0.003 -0.014 0.004 0.000Q V 6 0.027 0.053 0.003 -0.005 -0.006 0.000

    AVERAGE ABSOLUTE COVARIANCE RESIDUALS =

    0.0163

    AVERAGE OFF-DIAGONAL ABSOLUTE COVARIANCE RESIDUALS = 0.0228

  • 5/24/2018 An lisis Factorial Confirmatorio

    22

    22

    reespecificacin del mismo hasta que se lograra un mejor ajuste. Analizaremos, a

    continuacin, una serie de criterios que se calculan en la mayor parte de programas que

    abordan este tema. Como ya avanzamos, los estadsticos elaborados con esta finalidad son

    muchos ms de que los que aqu se muestran. La seleccin efectuada recoge, desde nuestro

    punto de vista, los ms utilizados.

    13.5.1 Matriz residual de covarianzas

    Como indicbamos al presentar los distintos mtodos de estimacin del AFC, el objetivo

    bsico de los mismos es que la matriz de covarianzas poblacional estimada se parezca lo ms

    posible a la muestral S. En otros trminos, puede expresarse lo anterior diciendo que ladiferencia entre ambas matrices, a la que llamamos matriz residual de covarianzas, est lo ms

    cercana posible a una matriz nula 0. Los valores de esta matriz deberan ser pequeos y estarhomogneamente distribuidos. Como seala Byrne (1994), residuos grandes asociados a

    algunos parmetros, podran indicar que han sido ml especificados, y ello afectara

    negativamente al ajuste global del modelo. El EQS proporciona la matriz residual de

    covarianzas recogida en el cuadro 13.7, as como su versin estandarizada que mostramos enel cuadro 13.8. En ambos casos calcula los promedios de estos residuos teniendo en cuenta los

    elementos de la diagonal y obvindolos. Este segundo promedio se justifica porque,

    normalmente, son los elementos de fuera de la diagonal los que tienen ms influencia sobre el

    estadstico2que mostraremos ms adelante (Bentler, 1995).

  • 5/24/2018 An lisis Factorial Confirmatorio

    23

    23

    Cuadro 13.8 Matriz residual estandarizada de varianzas covarianzas y otra informacin relacionada

    Asimismo, el programa ordena de mayor a menor los 20 residuos estandarizados ms grandes

    en valor absoluto, de tal manera que puedan identificarse las variables con mayores errores.

    Finalmente, muestra un grfico con la distribucin de estos residuos, distribucin que debera

    ser simtrica y centrada en cero.

    Examinando los resultados de nuestro ejemplo en concreto, observamos que el error promedio

    de los elementos fuera de la diagonal es pequeo (0.0282), indicando un buen ajuste. El

    elemento que muestra un mayor residuo es el asociado a las variables V2 y V6 (notas enqumica y filosofa), pudiendo indicar una mala especificacin, lo que ser analizado

    posteriormente para comprobar si procede su reespecificacin. Finalmente comprobamos que

    STANDARDIZED RESIDUAL MATRIX:

    L FSF H M FSC Q

    V 1 V 2 V 3 V 4 V 5 V 6

    L V 1 0.000

    FSF V 2 -0.011 0.000

    H V 3 0.041 -0.024 0.000

    M V 4 -0.046 0.043 -0.070 0.000

    FSC V 5 -0.007 0.013 -0.035 0.010 0.000

    Q V 6 0.022 0.081 0.003 -0.004 -0.014 0.000

    AVERAGE ABSOLUTE STANDARDIZED RESIDUALS = 0.0201

    AVERAGE OFF-DIAGONAL ABSOLUTE STANDARDIZED RESIDUALS = 0.0282

    LARGEST STANDARDIZED RESIDUALS:

    V 6,V 2 V 4,V 3 V 4,V 1 V 4,V 2 V 3,V 1

    0.081 -0.070 -0.046 0.043 0.041

    V 5,V 3 V 3,V 2 V 6,V 1 V 6,V 5 V 5,V 2

    -0.035 -0.024 0.022 -0.014 0.013

    V 2,V 1 V 5,V 4 V 5,V 1 V 6,V 4 V 6,V 3

    -0.011 0.010 -0.007 -0.004 0.003

    V 2,V 2 V 3,V 3 V 6,V 6 V 5,V 5 V 4,V 4

    0.000 0.000 0.000 0.000 0.000

    DISTRIBUTION OF STANDARDIZED RESIDUALS

    ----------------------------------------

    ! !

    20- -

    ! !

    ! !

    ! !! ! RANGE FREQ PERCENT

    15- -

    ! ! 1 -0.5 - -- 0 0.00%

    ! ! 2 -0.4 - -0.5 0 0.00%

    ! ! 3 -0.3 - -0.4 0 0.00%

    ! * ! 4 -0.2 - -0.3 0 0.00%

    10- * * - 5 -0.1 - -0.2 0 0.00%

    ! * * ! 6 0.0 - -0.1 11 52.38%

    ! * * ! 7 0.1 - 0.0 10 47.62%

    ! * * ! 8 0.2 - 0.1 0 0.00%

    ! * * ! 9 0.3 - 0.2 0 0.00%

    5- * * - A 0.4 - 0.3 0 0.00%

    ! * * ! B 0.5 - 0.4 0 0.00%

    ! * * ! C ++ - 0.5 0 0.00%

    ! * * ! -------------------------------

    ! * * ! TOTAL 21 100.00%

    ----------------------------------------

    1 2 3 4 5 6 7 8 9 A B C EACH "*" REPRESENTS 1 RESIDUALS

  • 5/24/2018 An lisis Factorial Confirmatorio

    24

    24

    el 100% de los residuos cae dentro del intervalo [0.1; 0.1] de forma prcticamente simtrica

    y, como se ha sealado, centrada en cero. En sntesis, el ajuste del modelo, a partir del anlisis

    de los residuos es bueno, aunque puede existir un problema debido a la interrelacin entre las

    variables V2 y V6.

    13.5.2 Estadsticos 2para el contraste global del modeloComo hemos visto anteriormente, se ha denominado a la matriz de varianzas covarianzasdel vector x condicionado al modelo (13-1); su estimacin se ha denotado por . Por otra

    parte, vamos a denominar nc a la matriz de varianzas covarianzas de xno condicionada al

    modelo; la estimacin de esta matriz es directamente la matriz muestral S. En el caso de queel modelo sea adecuado para explicar el comportamiento de x, ambas matrices sern iguales.Por lo tanto, podemos establecer la siguiente hiptesis nula:

    0 : ncH = (13-11)

    La hiptesis alternativa postula que la matriz nc es igual a cualquier matriz que sea definida

    positiva. Para el contraste de estas hiptesis en Bentler y Bonett (1980) se propone el

    siguiente estadsico:

    0

    LN F

    donde N es el nmero de datos y 0L

    F es el valor que toma la funcin de ajuste (13-7) al

    realizar la estimacin por mxima verosimilitud. Este estadstico se distribuye, bajo la

    hiptesis nula, como una 2 con q(q+1)-k grados de libertad, siendo q el nmero devariables independientes y kel nmero de parmetros a estimar. Si el modelo es el adecuado,se puede esperar que se rechace la hiptesis nula planteada en este contraste. En el EQS a

    este estadstico se le denomina Chi Square.

    El EQS ofrece, adems, un segundo estadstico denominado independence model chi-square.Este estadstico se distribuye tambin como una 2bajo la hiptesis nula de que existe unacompleta independencia entre las variables (matriz de correlaciones identidad). En este caso,

    si el modelo es el apropiado, cabe esperar que el estadstico tome valores elevados. Por elcontrario, si todas las variables observadas fueran independientes entre s el modelo de AFC

    propuesto no tendra sentido y, consecuentemente, este estadstico tomara valores bajos.

    El cuadro 13.9 recoge junto a los dos estadsticos citados, otros estadsticos que miden la

    bondad del ajuste que comentaremos posteriormente. Por otra parte el estadstico2para estemodelo en que son independientes las variables observadas es efectivamente muy alto

    (392,8). Por otra parte, el estadstico 2 para contrastar la hiptesis nula (13-11) tiene 6(6+1)-13 = 8 grados de libertad y toma el valor 8,84 con un p=0,355, lo que nos permiteaceptar la hiptesis nula de igualdad entre las matrices para los niveles usuales de

    significacin. Este estadstico se utiliza, en definitiva, para contrastar la validez del modeloterico propuesto por el investigador.

  • 5/24/2018 An lisis Factorial Confirmatorio

    25

    25

    Cuadro 13.9 Estadsticos de bondad de ajuste

    En la construccin del estadstico 2se ha tenido en cuenta que (i) se asume la hiptesis denormalidad de las variables observadas, (ii) el anlisis se basa en una matriz de varianzas y

    covarianzas y no en una matriz de correlaciones y (iii) el tamao muestral es lo

    suficientemente grande para que se justifiquen las propiedades asintticas del contraste.

    Ahora bien, dado que rara vez se cumplen simultneamente estos requisitos, Bentler y Bonett

    (1980), Long (1983) y Ullman (1996), entre otros, sealan que la utilizacin de este

    estadstico debe efectuarse con precaucin con muestras grandes, dado que incluso pequeas

    diferencias entre las matrices de covarianzas muestral y estimada sern evaluadas como

    significativas por el contraste. Este limitacin ha llevado al desarrollo de ms de 30

    indicadores ad hoc de bondad de ajuste (vase Marsh, Balla y McDonald, 1988; Tanaka,1993; Browne y Cudeck, 1993 o Williams y Holahan, 1994 para una revisin de los mismos),

    algunos de los cuales se mostrarn a continuacin.

    13.5.2 Estadsticos ad hoc

    Un primer grupo de estadsticos se correspondera con los denominados por Ullman (1996)

    ndices comparativos de ajuste. Los distintos modelos que se pueden plantear en un AFC vandesde el que hemos denominado modelo independiente (variables sin ninguna relacin) y que

    tendra tantos grados de libertad como el nmero de datos menos el de varianzas que se han

    de estimar, hasta el llamado modelo saturado, con ningn grado de libertad. Los ndices que

    se proponen son comparativos en el sentido de que comparan el valor del modelo terico que

    se evala, con el del modelo independiente.

    ndice NFI

    El ndice NFI (Normed Fit Index) ha sido propuesto por Bentler y Bonnett (1980) y comparael valor del estadstico2del modelo terico con el del modelo independiente:

    2 2

    2

    indep teorico

    indep

    NFI

    =

    GOODNESS OF FIT SUMMARY

    INDEPENDENCE MODEL CHI-SQUARE = 392.818 ON 15 DEGREES OF FREEDOM

    INDEPENDENCE AIC = 362.81793 INDEPENDENCE CAIC = 293.56637

    MODEL AIC = -7.15793 MODEL CAIC = -44.09210

    CHI-SQUARE = 8.842 BASED ON 8 DEGREES OF FREEDOM

    PROBABILITY VALUE FOR THE CHI-SQUARE STATISTIC IS 0.35579

    THE NORMAL THEORY RLS CHI-SQUARE FOR THIS ML SOLUTION IS 9.157.

    BENTLER-BONETT NORMED FIT INDEX= 0.977

    BENTLER-BONETT NONNORMED FIT INDEX= 0.996

    COMPARATIVE FIT INDEX (CFI) = 0.998

    BOLLEN (IFI) FIT INDEX= 0.998

    McDonald (MFI) FIT INDEX= 0.998

    LISREL GFI FIT INDEX= 0.989

    LISREL AGFI FIT INDEX= 0.971

    ROOT MEAN SQUARED RESIDUAL (RMR) = 0.027

    STANDARDIZED RMR = 0.044

    ROOT MEAN SQ. ERROR OF APP.(RMSEA)= 0.020

    90% CONFIDENCE INTERVAL OF RMSEA ( 0.000, 0.075)

  • 5/24/2018 An lisis Factorial Confirmatorio

    26

    26

    Para que sea satisfactorio este estadstico, como la mayor parte de los que examinaremos a

    continuacin, debe alcanzar valores superiores a 0,90 (Bentler, 1992).

    En nuestro ejemplo, como puede comprobarse en el cuadro 13.9, su valor es el siguiente:

    392,81 8,84 0,977392,81

    NFI = =

    Algunos trabajos han demostrado que este ndice tiene una tendencia a subestimar el ajuste

    del modelo si las muestras son pequeas (Bearden, Sharma y Teel, 1982), llevando a sus

    autores a plantear dos modificaciones del mismo, el ndice NNFI y el CFI.

    ndice NNFI

    El Nonnormed Fit Index (NNFI) incorpora los grados de libertad de los modelos terico eindependiente y aunque se evita as la subestimacin del ajuste, puede provocar en algunos

    casos extremos valores fuera del rango 0-1. Otra limitacin es que, en pequeas muestras,

    puede indicar un ajuste excesivamente bajo si se compara con otros modelos, tal y como

    apuntan Ullman (1996) y Anderson y Gerbing (1984).

    2 2

    2

    indepindep teorico

    teorico

    indep indep

    gl

    glNNFI

    gl

    =

    En el ejemplo que nos ocupa, y tomando la informacin del cuadro 13.9, este estadstico

    ofrece tambin un buen ajuste:

    15392,81 8,84

    8 0,996392,81 15

    NNFI

    = =

    ndice CFI

    Este ndice (Comparative Fit Index), propuesto por Bentler (1988), corrige por el nmero degrados de libertad del siguiente modo:

    ( ) ( )( )

    2 2

    2

    indep indep teorico teorico

    indep indep

    gl glCFI

    gl

    =

    En nuestro ejemplo este ndice tambin toma un valor satisfactorio:

    ( ) ( )

    ( )

    392,81 15 8.84 80,998

    392,81 15CFI

    = =

  • 5/24/2018 An lisis Factorial Confirmatorio

    27

    27

    ndice IFI

    Propuesto por Bollen (1989), pretende corregir la posibilidad de que el NNFI tome valores

    por encima del intervalo razonable 0-1. Para ello se formula as:

    2 2

    2

    indep teorico

    indep teorico

    IFIgl

    =

    En nuestro ejemplo este ndice tambin alcanza valores de ajuste razonables. A partir de la

    informacin del cuadro 13.9, se obtiene el siguiente valor:

    392,81 8,840,998

    392,81 8IFI

    = =

    ndice MFI

    Propuesto por McDonald y Marsh (1990), el ndice MFI entrara en los denominados ndices

    de ajuste absoluto en contraposicin a los anteriores que hemos denominado comparativos,

    por basarse en poner en relacin el modelo terico con el independiente. El MFI solo toma en

    consideracin la2del modelo terico y responde a la expresin siguiente:

    21

    2teorico teoricogl

    NMFI e

    =

    donde toda la notacin es conocida salvoNque indica el tamao de la muestra. Con los datos

    del cuadro 13.9 se comprueba que:

    1 8,84 8

    2 275 0,998MFI e

    = =

    ndice GFI

    Ullman (1996) denomina a este ndice y al AGFI que, como se ver, es una sencilla

    correccin de aquel, ndices de proporcin de varianza. El ndice GFI (Goodness of Fit Index)es una ratioentre los elementos ponderados de la matriz de covarianzas poblacional estimaday los elementos ponderados de la matriz de covarianzas muestral. Concretamente, su

    expresin es la siguiente:

    ( )

    ( )

    trGFI

    tr

    =

    Ws Ws

    donde el vector contiene las varianzas de la matriz de covarianzas estimada y el vector slasde la matriz muestral. La matriz W es una matriz de ponderacin que vara en funcin delmtodo de estimacin elegido: la matriz identidad en el ULS, la matriz de covarianzas

    muestral en el GLS, la inversa de la matriz de covarianzas estimada en el ML, etctera. Segnpuede verse en el cuadro 13.9, este estadstico toma el valor 0,981.

  • 5/24/2018 An lisis Factorial Confirmatorio

    28/

    28

    ndice AGFI

    El Adjusted Goodness of Fit Index (AGFI) es una correccin del anterior que se hace enfuncin del nmero de parmetros que se han de estimar (a los que denominanmos k) y el

    nmero de datos disponibles (a los que denominamos d). Esta correccin adopta la forma:

    11

    1

    GFIAGFI

    kd

    =

    En nuestro ejemplo, con la informacin del cuadro 13.9, y recordando que se dispona de 21datos y 13 parmetros a estimar, el valor del estadstico es el siguiente:

    1 0,9891 0,971

    131 21

    AGFI

    = =

    ndice AIC

    Este ndice, denominado Akaike Information Criterion (Akaike, 1987) forma parte de unnuevo grupo que Ullman (1996) denomina ndices de grado de parsimonia, por cuanto tienenen cuenta no solamente la bondad de ajuste estadstico sino tambin el nmero de parmetrosa estimar. Su expresin adopta la forma:

    2 2teorico teoricoAIC gl=

    Para nuestro ejemplo, con la informacin del cuadro 4.9 se obtiene el siguiente valor:

    8,84 2 8 7,15AIC= =

    Qu valor debe tomar este ndice? Ullman (1996) seala que lo suficientemente bajo pero,

    dado que no est normalizado a un intervalo 0-1, suficientemente bajo solo puede

    entenderse en trminos comparativos con otros modelos tericos, es decir, servir comoindicador para sealar si el modelo que hemos contrastado es mejor o peor que otro modelocontrastado previamente, pero no ofrece un nivel de ajuste absoluto. Esta es la razn de que

    siempre vaya acompaado por el AIC del modelo independiente, que se supone que es la baseque cualquier modelo terico debe mejorar y cuanto mayor sea la diferencia del valor del AICdel modelo comparado con el valor correspondiente independiente, tanto mejor. En nuestro

    ejemplo lo mejora muy claramente, dado que el AIC en el modelo independiente toma elvalor:

    392,81 2 15 362,81AIC= =

    ndice CAIC

    El Consistent AIC (CAIC) es la correccin propuesta por Bozdogan (1987) al AIC, siendovlidos todos los comentarios efectuados para este ltimo. Su expresin es la siguiente:

  • 5/24/2018 An lisis Factorial Confirmatorio

    29

    29

    ( )2 ln 1teorico teoricoCAIC N gl = +

    En nuestro ejemplo, como puede verse en el cuadro 13.9, toma el siguiente valor:

    ( )8,84 ln 275 1 8 44,09CAIC= + =

    que debe compararse con el CAIC del modelo independiente:

    ( )392,81 ln 275 1 15 293,56CAIC= + =

    ndice RMR

    El ltimo grupo de ndices que analizaremos son los que Ullman (1996) denomina basados enlos residuosque no son sino un promedio de las diferencias entre las varianzas y covarianzasmuestrales y las estimadas que se derivan del modelo. Esto es:

    ( )

    ( )

    2

    1 1

    1 / 2

    q i

    ij iji j

    s

    RMRq q

    = =

    =+

    donde toda la notacin es conocida, pero recordemos que q era el nmero de variablesobservadas. En nuestro ejemplo este ndice toma el valor de 0.027.

    Como los residuos sin estandarizar estn afectados por la escala en que se mide la variable, se

    suelen utilizar los residuos estandarizados construyndose el llamado SRMR (Standardized

    RMR) que est acotado entre 0 y 1, siendo recomendables valores inferiores a 0,05. Comopuede verse en el cuadro 13.9, el ndice SRMR se sita ligeramente por debajo de 0,05

    (0,044).

    13.5.3 Convergencia en el proceso de estimacin

    Byrne (1994) plantea que, en cuanto que la estimacin del modelo es un proceso iterativo, elhecho de que el algoritmo converja de una manera rpida, es indicador de un buen ajuste delmodelo. La autora considera que, si despus de dos o tres iteraciones, el cambio medio en las

    estimaciones de los parmetros se estabiliza en valores muy bajos, estaremos probablemente

    ante un ajuste adecuado.

    El EQS ofrece (cuadro 13.10) la informacin del nmero de iteraciones que han sidonecesarias para la convergencia y el cambio medio en los parmetros en cada una de ellas

    (parameter abs change). Puede comprobarse como, efectivamente, esta convergencia se haproducido en apenas 6 iteraciones y cmo, a partir de la tercera, los cambios han sidomnimos.

  • 5/24/2018 An lisis Factorial Confirmatorio

    30

    30

    Cuadro 13.10 Historial de iteraciones

    Al presentar los distintos ndices de ajuste, hemos podido comprobar que en el modelo que

    hemos tomado como ejemplo se ha obtenido un buen ajuste a los datos. Llegados a este

    punto, vamos a analizar e interpretar los resultados que hemos mostrado.

    13.6 INTERPRETACIN DEL MODELO

    Hasta este momento nos hemos centrado en analizar la razonabilidad del modelo en trminos

    globales (su ajuste). Ahora vamos a examinar si los estimadores de los parmetros sontambin razonables en dos sentidos: (i) toman valores adecuados tericamente? y (ii) son

    significativos?.

    La mayor parte de la informacin necesaria para esta fase, ya se ha mostrado en los cuadros

    13.4, 13.5 y 13.6 y a ellos referiremos nuestros comentarios.

    En primer lugar, vamos a analizar si los valores que toman los parmetros estimados son o no

    compatibles con el modelo estadstico. Para que exista tal compatibilidad las respuestas a lassiguientes preguntas deben ser en todos casos negativas:

    Existen correlaciones superiores a la unidad? Existen cargas factoriales estandarizadas fuera del intervalo 1,+1? Son los residuos estandarizados anormalmente grandes o pequeos? Hay estimaciones negativas de las varianzas?

    Si hubiera respuestas no negativas, y aunque el ajuste global del modelo fuera ptimo,estaramos ante un indicador claro de que (Long, 1983) esta incompatibilidad puede haberseoriginado por uno o ms de los siguientes motivos:

    1. El modelo est mal especificado.2. Los datos no respaldan la hiptesis de normalidad multivariante de las variables

    observadas3. La muestra es demasiado pequea4. El modelo est demasiado cerca de no estar identificado, lo que hace la estimacin de

    algunos parmetros difcil o inestable.5. Los valores perdidos de algunas variables observadas han provocado que cada

    elemento de la matriz de covarianzas muestral est calculado sobre una muestradiferente.

    ITERATIVE SUMMARY

    PARAMETER

    ITERATION ABS CHANGE ALPHA FUNCTION

    1 0.298689 1.00000 0.88599

    2 0.124292 1.00000 0.10692

    3 0.026794 1.00000 0.03287

    4 0.008439 1.00000 0.03231

    5 0.001469 1.00000 0.03227

    6 0.000443 1.00000 0.03227

  • 5/24/2018 An lisis Factorial Confirmatorio

    31

    31

    Si se revisan los cuadros 13.4 a 13.6 se puede comprobar que, en el modelo del ejemplo, no sepresenta ninguna de las incompatibilidades sealadas.

    La segunda cuestin que debemos examinar es la significatividad estadstica de cada

    parmetro individual. Centraremos la explicacin en los coeficientes de regresin entrevariables observadas y factores comunes, aunque lo expuesto es vlido para el resto deparmetros (varianzas y covarianzas).

    Si tomamos, por ejemplo, la segunda ecuacin del cuadro 13.4, comprobamos que aparecen

    las tres lneas que estn reproducidas en el cuadro 13.11. La primera de ellas ofrece laecuacin correspondiente a la variable observada calificacin en Filosofa (FSF o V2). Esta

    ecuacin se expresa como una combinacin lineal del factor comn inteligencia verbal (F1)

    multiplicado por el coeficiente de regresin estimado (0,509) y un error de medida (E2).

    Cuadro 13.11 Ecuacin con errores estndar y estadstico t

    En la segunda lnea aparece el error estndar (0,068) y el estadstico t (coeficiente/errorestndar = 7.467) que permite contrastar la hiptesis nula de que el parmetro es nulo.

    Aunque la significatividad depende de los grados de libertad, para una muestra de un tamao

    mayor de 60, valores superiores a 1,96 permiten rechazar dicha hiptesis nula para un nivelde significacin 0,05, o superiores a 2,56 para 0,01. La carga factorial (o coeficiente

    de regresin) es, pues, significativa en este caso, as como en el resto de los coeficientes queaparecen en el cuadro 13.4.

    Es habitual ofrecer, sobre todo en la publicacin de los resultados, la solucin estandarizada

    del AFC, esto es, aquella en que se recalculan los estimadores para asegurar que las varianzasde los factores comunes y de las variables observadas son igual a la unidad. Esto se hace,

    bsicamente, para facilitar la comparacin de los resultados con trabajos precedentes. Estainformacin, tal como la proporciona el EQS, se recoge en el cuadro 13.12 para las

    ecuaciones fundamentales (estimacin de las coeficientes de regresin de los factores

    comunes y de los factores especficos), y las correlaciones entre los factores comunes.

    FSF =V2 = .509*F1 + 1.000 E2

    .068

    7.467

  • 5/24/2018 An lisis Factorial Confirmatorio

    32

    32

    Cuadro 13.12 Solucin estandarizada

    Esta informacin se suele presentar grficamente tal y como se recoge en la figura 13.5.

    Figura 13.5 Modelo AFC estimado

    x1 x2 x3 x4 x5 x6

    1

    1 2

    2 3 4 5 6

    0,582

    0,732 0,688 0,492 0,759 0,760 0,615

    0,682 0,725 0,871 0,651 0,650 0,789

    STANDARDIZED SOLUTION:

    L =V1 = .732 F1 + .682 E1

    FSF =V2 = .688*F1 + .725 E2

    H =V3 = .492*F1 + .871 E3

    M =V4 = .759 F2 + .651 E4

    FSC =V5 = .760*F2 + .650 E5

    Q =V6 = .615*F2 + .789 E6

    CORRELATIONS AMONG INDEPENDENT VARIABLES

    ---------------------------------------

    V F

    --- ---

    I F2 - IQ .582*I

    I F1 - IV I

    I I

  • 5/24/2018 An lisis Factorial Confirmatorio

    33

    33

    13.7 REESPECIFICACIN DEL MODELO

    Como seala Ullman (1996), existen bsicamente dos motivos para reespecificar un modelo

    (esto es, eliminar o introducir relaciones entre las variables que los conforman): (i) mejorar su

    ajuste o (ii) contrastar alguna hiptesis terica. Existen, sin embargo, muchos problemas quepueden generarse como consecuencia de una reespecificacin poco meditada. Como veremosa continuacin, existen dos instrumentos analticos el contraste del multiplicador de

    Lagrange y el contraste de Wald que nos indican qu relaciones causales pueden aadirse oeliminarse y qu mejoras en el ajuste obtendramos con cada una de esta modificaciones. Si el

    investigador cae en la tentacin de ir incorporando o eliminando relaciones sin ms, hastalograr un ajuste razonable y no tiene en cuenta si estas modificaciones estn o no soportadas

    por el marco terico que sustenta su investigacin, puede provocarse que el modelo al que se

    llega no sea en absoluto generalizable (McCallumn, Roznowski y Necowitz, 1992).

    En este mismo sentido, Pedhazur (1982) y Sorbom (1989) afirman que es cientficamente

    incorrecto modificar un modelo simplemente porque mejore su ajuste, ya que el cambio debeser tericamente interpretable y el investigador debe ser capaz de justificar cul es el motivo

    para aadir una relacin causal determinada.

    Todo lo expuesto lleva a Hatcher (1994) a plantear las siguientes recomendaciones para lamodificacin de un modelo, aunque la mayora se basan en el trabajo de McCallumn,

    Roznowski y Necowitz (1992):

    1. Utilizar muestras grandes. Los modelos basados en menos de 100 o 150 casos llevana modelos finales poco estables si las modificaciones se basan en los datos y no en lateora.

    2. Hacer pocas modificaciones. Es posible que las primeras modificaciones puedan estarderivadas de un modelo que refleje las relaciones poblacionales; las siguientes,probablemente, reflejarn relaciones especficas de la muestra.

    3. Realizar solo aquellos cambios que puedan ser interpretados desde una perspectivaterica o tengan soporte en trabajos precedentes. En todo caso, se deben detallar todos

    los cambios realizados sobre el modelo inicial en el informe del trabajo final.

    4. Seguir un procedimiento paralelo de especificacin. Siempre que sea posible, elinvestigador debera trabajar con dos muestras independientes. Si las dos muestras

    desembocan en las mismas modificaciones del modelo, se podr tener una mayorconfianza en la estabilidad del mismo.

    5. Comparar modelos alternativos desde el principio. Ms que proponer un modelo e irmodificndolo, puede ser conveniente en algunas ocasiones plantear modelosalternativos y determinar con cul se obtiene un mejor ajuste.

    6. Finalmente, describir detalladamente las limitaciones de su estudio. Como indicaHatcher (1994), la mayora de los trabajos que se publican estn basados en una nica

    muestra y sobre los que se efectan sucesivas modificaciones basadas en los datos

    hasta lograr un ajuste razonable. Si se sigue este enfoque, sera recomendable que eltrabajo advirtiera al lector de todas estas circunstancias.

    Una vez planteadas estas precauciones, veamos a continuacin los instrumentos de que sedispone para reespecificar un modelo.

  • 5/24/2018 An lisis Factorial Confirmatorio

    34

    34

    13.7.1 Significatividad de los parmetros

    La primera modificacin posible, y la ms obvia, para mejorar el ajuste de un modelo es

    eliminar aquellos parmetros cuyos estimadores no sean significativos de acuerdo con los

    resultados de contraste t. Aunque esta accin puede que no haga disminuir el valor de la 2, s

    que puede hacer aumentar la probabilidad de que no sea significativa gracias al aumento delvalor crtico para un nivel de significacin determinado al eliminar grados de libertad (Long,1983).

    En nuestro ejemplo, tal y como se comprueba en los cuadros 13.4, 13.5 y 13.6, todos loscoeficientes estimados son significativos

    13.7.2 Contraste del multiplicador de Lagrange

    El contraste ML permite evaluar la mejora que se obtiene al aadir una relacin causal o una

    nueva covarianza al modelo terico. Para determinar si esta mejora es estadsticamentesignificativa, el estadstico lleva asociado un nivel de significacin.

    El EQS ofrece dos versiones de este contraste, la univariante y la multivariante. En la

    univariante se muestra el incremento que se producira en la2si se introdujera, por separado,cada una de las relaciones consideradas. Esta aproximacin univariante tiene el problema de

    que, al no considerar las covarianzas entre los distintos parmetros estimados, harn queaparezcan como candidatos a aadirse al modelo y mejorar su ajuste bastantes parmetros. El

    enfoque multivariante, sin embargo, identifica el parmetro que conducira a un mayor

    incremento en el estadstico 2 del modelo. Despus de tener en consideracin su

    introduccin, muestra el parmetro cuya inclusin causara el siguiente mayor incremento.

    Cuadro 13.13 Contraste univariante del multiplicador de Lagrange

    LAGRANGE MULTIPLIER TEST (FOR ADDING PARAMETERS)

    ORDERED UNIVARIATE TEST STATISTICS:

    NO CODE PARAMETER CHI-SQUARE PROBABILITY PARAMETER CHANGE

    -- ---- --------- ---------- ----------- ----------------

    1 2 6 E3,E1 4.741 0.029 0.156

    2 2 12 V2,F2 4.741 0.029 0.174

    3 2 6 E5,E4 2.098 0.148 0.063

    4 2 12 V6,F1 2.098 0.148 0.1825 2 6 E4,E1 1.714 0.190 -0.065

    6 2 6 E4,E2 1.680 0.195 0.035

    7 2 6 E2,E1 1.675 0.196 -0.091

    8 2 12 V3,F2 1.675 0.196 -0.142

    9 2 6 E4,E3 1.540 0.215 -0.058

    10 2 6 E6,E2 1.413 0.235 0.034

    11 2 12 V1,F2 1.125 0.289 -0.167

    12 2 6 E3,E2 1.125 0.289 -0.039

    13 2 12 V4,F1 1.000 0.317 -0.134

    14 2 6 E6,E5 1.000 0.317 -0.031

    15 2 6 E5,E2 0.387 0.534 -0.006

    16 2 6 E5,E1 0.190 0.663 0.008

    17 2 12 V5,F1 0.069 0.793 -0.013

    18 2 6 E6,E4 0.069 0.793 -0.022

    19 2 6 E6,E3 0.055 0.815 0.012

    20 2 6 E6,E1 0.034 0.853 0.010

    21 2 6 E5,E3 0.017 0.897 -0.002

    22 2 0 V1,F1 0.000 1.000 0.000

    23 2 0 V4,F2 0.000 1.000 0.000

  • 5/24/2018 An lisis Factorial Confirmatorio

    35

    35

    Cuadro 13.14 Contraste multivariante del multiplicador de Lagrange

    Los cuadros 13.13 y 13.14 recogen la informacin sealada que se solicit al programa con la

    opcin /LMTEST que apareca en la sintaxis ofrecida en el cuadro 13.2. En el contrasteunivariante, se observa que hay dos parmetros que, individualmente, seran candidatos a

    conseguir una mejora significativa del modelo. Estos dos parmetros se corresponden con laintroduccin de una covarianza entre los factores especficos E1 y E3, en el primer caso, y

    con la inclusin de una relacin causal entre la variable observada V2 y el factor comn F2,en el segundo caso. En ambos casos el contraste ofrece el valor aproximado que tendra el

    parmetro si se aadiera (parameter change).

    Sin embargo, como se ha sealado, estos contrastes tienen el inconveniente que no tiene en

    cuenta las covarianzas entre los distintos estimadores de los parmetros, por lo que esconveniente centrar la atencin en el contraste multivariante, que descuenta estos efectos

    comunes. Si nos fijamos en el cuadro 13.14, comprobamos que ahora slo propone la

    inclusin de una relacin, o path causal, entre la variable V2 y el factor comn F2. Y sloincluye este parmetro porque el enfoque multivariante hace que compruebe que, tras hacerlo,

    ninguna otra adicin provocara mejoras significativas en la 2. La necesidad estadstica deintroducir este parmetro no es excesiva, dado que el contraste demuestra que la mejora sera

    slo significativa al 5% y no al 1% (p=0.029) y hara que el estadstico 2 disminuyera en4.74 unidades. Debe producirse esta modificacin del modelo? La respuesta debe proceder

    del anlisis terico del investigador. El modelo tiene un ajuste suficientemente razonable,

    tiene sentido que exista una relacin causal entre la inteligencia cuantitativa y la filosofa?existe soporte terico para esta relacin? hay trabajos previos que lo apuntan? Si no es as,

    no debera introducirse la relacin propuesta por el contraste LM, dado que el ajuste delmodelo sin ella es razonable.

    13.7.3 Contraste de Wald

    Mientras que el contraste LM se utiliza para plantearse si deberan aadirse nuevos

    parmetros al modelo, en el contraste de Wald se aplica para cuestionarse si deberansuprimirse algunos de los parmetros existentes. En este caso, para confirmar la validez del

    modelo lo deseable sera, al contrario de lo que ocurre con el contraste de los multiplicadores

    de Lagrange, no poder rechazar la hiptesis nula de que los parmetros son cero.

    MULTIVARIATE LAGRANGE MULTIPLIER TEST BY SIMULTANEOUS PROCESS IN STAGE 1

    PARAMETER SETS (SUBMATRICES) ACTIVE AT THIS STAGE ARE:

    PVV PFV PFF PDD GVV GVF GFV GFF BVF BFF

    CUMULATIVE MULTIVARIATE STATISTICS UNIVARIATE INCREMENT

    ---------------------------------- --------------------

    STEP PARAMETER CHI-SQUARE D.F. PROBABILITY CHI-SQUARE PROBABILITY

    ---- ----------- ---------- ---- ----------- ---------- -----------

    1 V2,F2 4.741 1 0.029 4.741 0.029

  • 5/24/2018 An lisis Factorial Confirmatorio

    36

    36

    En nuestro ejemplo, como se comprueba en el cuadro 13.15, no hay relaciones que pudieran

    suprimirse pero, en el caso de que existieran, deberan hacerse las mismas consideraciones denaturaleza terica que se han efectuado en el caso de inclusin de nuevos parmetros.

    En general, tanto el contraste LM como el de Wald son procedimientos paso a paso, por loque el error tipo I suele sobreestimarse. Por esta razn algunos autores (Ullman, 1996)

    recomiendan ser conservadores en el nivel de significacin considerado. Por ejemplo =0,01para Lagrange y =0.05 para Wald.

    Tambin seala esta autora que, de acuerdo con McCallum (1986), el orden en que los

    parmetros se eliminen o aadan puede afectar a la significatividad de los restantes, por lo quese recomienda aadir todos los parmetros necesarios antes de eliminar los innecesarios.

    Cuadro 13.15 Contraste de Wald

    13.8 UN EJEMPLO COMPLETO DE AFC

    Desarrollaremos ahora un ejemplo completo de AFC pero recurriendo, en esta ocasin a unprograma distinto, el mdulo CALIS del SAS, de tal forma que el lector pueda apreciar las

    similitudes y diferencias entre dos de los programas ms utilizados para este tipo de anlisis.

    CASO13.2 Validez convergente de una escala de medida de la orientacin de mercado

    El problema con que nos enfrentamos es el siguiente. Como seala Martn Armario (1993),

    las organizaciones se ven obligadas a estar pendientes tanto de sus clientes como de lacompetencia, aunque su gestin de marketing puede variar la importancia que concede a unou otro factor a lo largo del tiempo. Nuestro investigador quiere desarrollar un instrumento de

    medida de estos dos aspectos del enfoque de marketing, la orientacin al cliente y la

    orientacin a la competencia, para determinar, en cada momento del tiempo, cul estprimando por encima del otro en un sector determinado.

    Basndose en el trabajo de Narver y Slater (1990), desarrolla una escala de 11 preguntas

    donde las 6 primeras se han diseado para medir la orientacin al cliente y las 5 siguientes

    para medir la orientacin a la competencia, tal y como se sintetiza en el cuadro 13.16.

    Pero una escala de medida debe demostrar su validez convergente, esto es, si se supone queesas 11 preguntas estn midiendo dos factores latentes o constructordistintos, cada grupo de

    WALD CONTRASTE (FOR DROPPING PARAMETERS)

    MULTIVARIATE WALD TEST BY SIMULTANEOUS PROCESS

    CUMULATIVE MULTIVARIATE STATISTICS UNIVARIATE INCREMENT

    ---------------------------------- --------------------

    STEP PARAMETER CHI-SQUARE D.F. PROBABILITY CHI-SQUARE PROBABILITY

    ---- ----------- ---------- ---- ----------- ---------- -----------

    ************

    NONE OF THE FREE PARAMETERS IS DROPPED IN THIS PROCESS.

  • 5/24/2018 An lisis Factorial Confirmatorio

    37

    37

    variables observadas deben tener cargas significativas sobre su respectivo factor comn, y no

    sobre los dems (puede consultarse Kster, Vila y Alds, 2000 para profundizar en el tema dela validacin de escalas). Por este motivo, tras realizar una encuesta a 375 empresas, con el

    cuestionario del cuadro 13.16, se realiza una aplicacin del mtodo AFC para constatar la

    plausibilidad del modelo recogido en la figura 13.6. Si este modelo ofrece un ajuste razonable

    y todas las cargas factoriales planteadas son significativas, ser una evidencia que apoyar lavalidez convergente de estos indicadores (Anderson y Gerbing, 1988).

    Cuadro 13.16 Escala de medida a validar

    Fuente: adaptado de Narver y Slater (1990)

    Sometido a un primer anlisis descriptivo las 11 variables, obtenemos la matriz de varianzas y

    covarianzas que se recoge en el cuadro 13.17 y que ser el punto de partida de nuestro

    anlisis.

    Valore su acuerdo o desacuerdo con las siguientes afirmaciones en una escala de siete puntosdonde 1=totalmente en desacuerdo; 7=totalmente de acuerdo.

    ORIENTACIN AL CLIENTEV1. Nos preocupamos por responder a las exigencias de los clientesV2. Ofrecemos servicios post-ventaV3. Comprendemos las necesidades de los clientesV4. Nos fijamos objetivos de satisfaccin del cliente

    V5. Medimos el grado de satisfaccin del clienteV6. Las acciones de mi empresa van dirigidas a que el cliente obtenga ms por el mismo precio

    ORIENTACIN A LA COMPETENCIAV7. Poseemos informacin sobre la cuota de mercado de la competenciaV8. Damos una respuesta rpida a las acciones de la competencia

    V9. La alta direccin efecta anlisis de las estrategias de la competenciaV10. El personal de ventas regularmente comparte informacin con nuestro negocio en relacin a

    la estrategia de los competidores.

    V11. Vemos como ventajas competitivas las oportunidades de mercado

  • 5/24/2018 An lisis Factorial Confirmatorio

    38/

    38

    Figura 13.6 Modelo terico sujeto a contraste

    1 2

    v1

    1

    v2 v3 v4 v5 v6

    2 3 4 5 6

    v7 v8 v9

    7 9 9

    v10

    10

    v11

    11

    11 21 31 41 51 61

    12=21

    72 82 92 102 112

    Orientacin

    al cliente

    Orientacin a la

    competencia

    Cuadro 13.17. Matriz de varianzas covarianzas del ejemploV1 V2 V3 V4 V5 V6 V7 V8 V9 V10 V11

    V1 8,48

    V2 4,03 8,79

    V3 3,32 2,68 5,32

    V4 4,76 4,81 2,71 10,14

    V5 5,34 4,62 2,62 5,02 8,60

    V6 2,72 1,89 1,68 2,23 2,33 7,31

    V7 1,97 3,54 1,05 3,45 2,46 0,60 8,61

    V8 1,56 1,47 1,39 2,52 1,03 1,07 1,94 7,07

    V9 1,81 2,97 1,70 2,26 2,36 0,53 3,04 2,53 7,34

    V10 1,53 2,72 0,28 2,43 1,55 0,27 3,03 1,92 3,08 8,09

    V11 0,06 0,52 0,60 -0,37 0,84 1,34 -0,61 0,29 0,83 0,43 1,34

    El primer paso consiste en identificar el modelo terico ilustrado en la figura 13.6. Para ello

    es necesario determinar los parmetros que se han de estimar y los que se han de constreir a

    un valor prefijado, de acuerdo con las especificaciones dadas. En este sentido, se llevan acabo las siguientes tareas:

    1. Establecimiento de la escala de los factores comunes. Puede fijarse la carga factorialentre una variable observada y el factor comn a 1 o la varianza de ese factor comn a1. En este caso, se ha optado por fijar la varianza del factor comn a uno, como se

    ilustra en la figura 13.7.2. Comprobacin de la identificabilidad de la parte del modelo que contiene la relacin

    entre las variables observadas y los factores. Como tenemos dos factores y ms de tres

    variables observadas por cada uno de ellos, se han asumido las siguientes supuestos:los trminos de error estn incorrelacionados entre s; cada variable carga solo sobre

    un factor; se permite a los factores que covaren; y se fijan a 1 los parmetros de loscoeficientes de regresin de los trminos de error en las ecuaciones de las variables

    observadas. Todos estos supuestos se recogen en la figura 13.7.

    .

  • 5/24/2018 An lisis Factorial Confirmatorio

    39

    39

    3. Determinacin de los grados de libertad. Tras las restricciones anteriores, se disponede 1112/2=66 datos y de 23 parmetros a estimar: las 11 varianzas de los trminos deerror, los 11 coeficientes de regresin entre las variables observadas y los factores

    comunes y la covarianza entre dichos factores. El modelo est, pues, sobreidentificado

    y tiene 43 grados de libertad.

    Figura 13.7 Modelo terico identificado

    1 2

    v1

    1*

    v2 v3 v4 v5 v6

    2* 3* 4* 5* 6*

    v7 v8 v9

    7* 9* 9*

    v10

    10*

    v11

    11*

    11=* 21=* 31=*41=*51=* 61=*

    12=21=*

    72=* 82=*92=*102=*112=*

    Orientacinal cliente

    Orientacin a lacompetencia

    11=1 22=1

    1 1 1 1 1 1 1 1 1 1 1

    Una vez identificado el modelo, escribimos la sintaxis del SAS CALIS que permite sucontrastacin, tal como aparece recogida en el cuadro 13.18. Hemos optado por utilizar laopcin de formulacin equivalente al EQS (opcin LINEQS de la sintaxis) para facilitar la

    comparabilidad de la misma con la mostrada con anterioridad. Comentamos a continuacinlos elementos bsicos de la misma.

  • 5/24/2018 An lisis Factorial Confirmatorio

    40

    40

    Cuadro 13.18 Sintaxis del SAS CALIS

    Como se puede comprobar al examinar el cuadro 13.18, la sintaxis del SAS CALIS es muysimilar a la del EQS. La primera parte de la misma (DATA) se limita a suministrar al

    programa la matriz de varianzas covarianzas con la que ha de trabajar y el nmero de casos

    (375) que la han generado. En la segunda parte (PROC CALIS) se dan las siguientesinstrucciones: el anlisis se ha de efectuar sobre la matriz de varianzas covarianzas

    (COVARIANCES) y no sobre la matriz de correlacin; se debe imprimir la matriz decorrelacin (CORR); se debe imprimir la matriz de varianzas covarianzas residual, tanto la

    absoluta como la estandarizada (RESIDUAL); se solicita que ofrezca los indicadoresnecesarios para reespecificar el modelo, caso de que el ajuste no sea bueno, es decir, los

    contrastes de Wald y multiplicadores de Lagrange (MODIFICATION); y, finalmente, seindica al programa que efecte una estimacin por mxima verosimilitud (METHOD=ML).

    Caso de optar por otro procedimiento se utilizaran los siguientes cdigos: GLS para mnimos

    cuadrados generalizados; LSGLS para realizar primero una estimacin por mnimos

    DATA D1 (TYPE=COV);

    INPUT _TYPE_ $ _NAME_ $ V1-V11;

    CARDS;

    N . 375 375 375 375 375 375 375 375 375 375 375COV V1 8.48 . . . . . . . . . .

    COV V2 4.03 8.79 . . . . . . . . .

    COV V3 3.32 2.68 5.32 . . . . . . . .

    COV V4 4.76 4.81 2.71 10.14 . . . . . . .

    COV V5 5.34 4.62 2.62 5.02 8.60 . . . . . .

    COV V6 2.72 1.89 1.68 2.23 2.33 7.31 . . . . .

    COV V7 1.97 3.54 1.05 3.45 2.46 0.60 8.61 . . . .

    COV V8 1.56 1.47 1.39 2.52 1.03 1.07 1.94 7.07 . . .

    COV V9 1.81 2.97 1.70 2.26 2.36 0.53 3.04 2.53 7.34 . .

    COV V10 1.53 2.72 0.28 2.43 1.55 0.27 3.03 1.92 3.08 8.09 .

    COV V11 0.06 0.52 0.60 -0.37 0.84 1.34 -0.61 0.29 0.83 0.43 8.25

    ;

    PROC CALIS COVARIANCE CORR RESIDUAL MODIFICATION METHOD=ML;

    LINEQS

    V1=LV1F1 F1+E1,

    V2=LV2F1 F1+E2,

    V3=LV3F1 F1+E3,

    V4=LV4F1 F1+E4,

    V5=LV5F1 F1+E5,

    V6=LV6F1 F1+E6,

    V7=LV7F2 F2+E7,

    V8=LV8F2 F2+E8,

    V9=LV9F2 F2+E9,

    V10=LV10F2 F2+E10,

    V11=LV11F2 F2+E11;

    STD

    F1=1,

    F2=1,

    E1-E11=VARE1-VARE11;

    COV

    F1 F2=CF1F2;

    VAR V1-V11;

    RUN;

  • 5/24/2018 An lisis Factorial Confirmatorio

    41

    41

    cuadrados sin ponderar, seguida de otra por mnimos cuadrados generalizados; LSML para

    realizar primero una estimacin por mnimos cuadrados sin ponderar seguida por una pormxima verosimilitud; y, finalmente, ULS para realizar una estimacin por mnimos

    cuadrados sin ponderar.

    El paso siguiente consiste en introducir las ecuaciones que, como se seal, se efecta en estecaso siguiendo la notacin de Bentler y Weeks (1980), lo que se le indica al programamediante la instruccin LINEQS. A partir de aqu la sintaxis es inmediata y se deriva de

    manera directa de la figura 13.7. Las variables se denotan con la letra V, los coeficientes deregresin con la letra L (de loadings) seguida por los dos elementos que une (V1 y F1, porejemplo), los factores comunes se deno