1a sesión 2-7-15-rregresión lineal múltiple -maestría -epi

15
Capítulo 4 Análisis de Regresión Múltiple Estadística Informática: casos y ejemplos con el SPSS • 3 • El Análisis de Regresión Lineal Múltiple nos permite estable- cer la relación que se produce entre una variable dependiente Y y un conjunto de variables independientes (X1,X2, ... XK). El análisis de regresión lineal múltiple, a diferencia del simple, se aproxima más a situaciones de análisis real puesto que los fenó- menos, hechos y procesos sociales, por definición, son comple- jos y, en consecuencia, deben ser explicados en la medida de lo posible por la serie de variables que, directa e indirectamente, participan en su concreción. Al aplicar el análisis de regresión múltiple lo más frecuente es que tanto la variable dependiente como las independientes sean variables continuas medidas en escala de intervalo o razón. No obstante, caben otras posibilidades: (1) también podremos aplicar este análisis cuando relacionemos una variable depen- diente continua con un conjunto de variables categóricas; (2) o bien, también aplicaremos el análisis de regresión lineal múltiple en el caso de que relacionemos una variable dependiente nomi- nal con un conjunto de variables continuas. La anotación matemática del modelo o ecuación de regre- sión lineal múltiple es la que sigue: Y=a+b1x1 +b2x2 + ... + bnxn +e ó presente = a + b1pasado +b2futuro +e en donde: Y es la variable a predecir; a, b1x1,b2x2... bnxn, son parámetros desconocidos a estimar; y e es el error que cometemos en la predicción de los pará- metros. Al ocuparnos del análisis lineal bivariado, análisis de regresión simple, vimos como el modelo final resultante podía ser calificado 1. Introducción Capítulo 4 Análisis de Regresión Múltiple

Transcript of 1a sesión 2-7-15-rregresión lineal múltiple -maestría -epi

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 3 •

ElAnálisisdeRegresiónLinealMúltiplenospermiteestable-cerlarelaciónqueseproduceentreunavariabledependienteYy un conjunto de variables independientes (X1, X2, ... XK). Elanálisisde regresión linealmúltiple,adiferenciadel simple, seaproximamásasituacionesdeanálisisrealpuestoquelosfenó-menos,hechosyprocesossociales,pordefinición,soncomple-josy,enconsecuencia,debenserexplicadosenlamedidadeloposible por la serie de variables que, directa e indirectamente,participanensuconcreción.

Alaplicarelanálisisderegresiónmúltiple lomásfrecuentees que tanto la variable dependiente como las independientesseanvariablescontinuasmedidasenescaladeintervaloorazón.No obstante, caben otras posibilidades: (1) también podremosaplicar este análisis cuando relacionemos una variable depen-dientecontinuaconunconjuntodevariablescategóricas;(2)obien,tambiénaplicaremoselanálisisderegresiónlinealmúltipleenelcasodequerelacionemosunavariabledependientenomi-nalconunconjuntodevariablescontinuas.

La anotaciónmatemáticadelmodelooecuaciónde regre-siónlinealmúltipleeslaquesigue:

Y=a+b1x1+b2x2+...+bnxn+eó

presente=a+b1pasado+b2futuro+e

endonde: Yeslavariableapredecir; a,b1x1,b2x2...bnxn,sonparámetrosdesconocidosaestimar; yeeselerrorquecometemosenlaprediccióndelospará- metros.

Alocuparnosdelanálisislinealbivariado,análisisderegresiónsimple,vimoscomoelmodelofinalresultantepodíasercalificado

1. Introducción

Capítulo 4Análisis de Regresión Múltiple

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS• 4 •

deun“buenmodelo”.Sinembargo,enmuchasocasioneslosmodelosbivariadososimplespuedenversemejoradosalintrodu-cirunasegunda(tercera,cuarta,...)variableindependienteoexpli-cativa.Consideramosqueunmodeloderegresiónlinealsimpleseha “mejorado” cuando al introducir en elmismomás variablesindependientes la proporción de variabilidad explicada se incre-menta.Pero¿quévariablessonlasquemejorexplicanelhecho,procesoofenómenosocialobjetodeestudio?;o,¿quévariablesnosonnecesarioincluirenelmodelodadasunulaoescasacapa-cidad explicativa? Esta es, sin lugar a dudas, la decisión másimportanteligadaalanálisisderegresiónmúltipleylainclusióndeesteprocesoes loquediferencia,sustancialmente,alanálisisderegresiónmúltipledelderegresiónsimple.

Laexposicióndeestecapítuloseestructuraen tornoa lossiguientespuntos,asaber:

1. Determinación de la bondad de ajuste de los datos almodeloderegresiónlinealmúltiple.

2. Eleccióndelmodeloqueconelmenornúmerodevaria-bles explicamás la variable dependienteo criterio.Paraelloexponemoselprocesode“pasoapaso”ostepwise.

3. Estimacióndelosparámetrosdelaecuaciónydelmode-looecuaciónpredictiva.

4. ExposicióndelospasosyCuadrodeDiálogodelAnálisisdeRegresiónLineal(Múltiple)quepodemosseguirparalaobtencióndelosestadísticosylaspruebasnecesariascitadasencadaunodelospuntosprecedentes.

Enelanálisisderegresiónmúltiple,losestadísticos,pruebasyanálisisqueseaplicanparadeterminarlarelaciónygradodeasociaciónentreunavariabledependienteysussupuestasvaria-blesexplicativas,asícomolaestimacióndelosparámetrosdelaecuación,nodifierendelosdeterminadosenelanálisisderegre-siónsimple.Dehecho,unapartedelanálisisderegresiónbiva-riado se realiza aplicando el cuadro de diálogo específico delanálisisderegresiónmúltiple.Ladiferenciaestriba,pues,enquemientras en el análisis de regresión simple al contar exclusiva-menteconlarelacióndeunpardevariableselprocesoseresol-vía en un solo paso; en el análisis de regresión múltiple esnecesariocalcularestadísticos,pruebasyanálisisamedidaque

2. Elección del modelo: el método “stepwise” o paso a paso

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 5 •

vamosintroduciendoy/osacandovariablesindependientesenelmodelo.

Enelanálisisderegresiónlinealmúltiplelaconstruccióndesucorrespondienteecuaciónse realizaseleccionando lasvaria-blesunaauna,“pasoapaso”.Lafinalidadperseguidaesbuscardeentretodaslasposiblesvariablesexplicativasaquellasquemásymejorexpliquenalavariabledependientesinqueningunadeellasseacombinaciónlinealdelasrestantes.Esteprocedimientoimplicaque:(1)encadapasosoloseintroduceaquellavariablequecumpleunoscriteriosdeentrada;(2)unavezintroducida,encadapasosevalorasialgunadelasvariablescumplencriteriosdesalida;y(3),encadapasosevaloralabondaddeajustedelosdatosalmodeloderegresiónlinealysecalculanlosparáme-trosdelmodeloverificadoendichopaso.Elprocesoseiniciasinningunavariableindependienteenlaecuaciónderegresiónyelprocesoconcluyecuandonoquedaningunavariablefueradelaecuaciónquesatisfagaelcriteriodeselección(garantizaquelasvariablesseleccionadassonsignificativas)y/oelcriteriodeelimi-nación(garantizarqueunavariableseleccionadanoesredundan-te).

1.-Verificacióndeloscriteriosdeprobabilidaddeentrada. Elp-valorasociadoalestadísticoT,oprobabilidaddeentrada,nosindicasi la informaciónproporcionadaporcadaunadelasvariableses redundante.Si ésteesmenorqueundeterminadovalorcrítico, lavariableseráseleccionada.ElSPSSpordefectoestableceen0.05elvalorcríticodelaprobabilidaddeentrada.

Elcriteriodetoleranciapuedeseraplicadocomouncriterioadicionalalaprobabilidaddeentrada.Éstenosayudaaidentifi-car si alguna de las variables delmodelo es una combinaciónlinealdelasrestantes.Sidichovalorespróximoa0,lavariableanalizadaseráunacombinaciónlinealdelasrestantesvariablesindependientesintroducidas.Sielvalordelatoleranciaseaproxi-maa1puedereducirlapartedelavariabilidaddeYnoexpli-cada por las restantes. En síntesis, si la tolerancia para unavariableesmuypequeñaseexcluirádelmodelo.

2.-Verificacióndelcriteriodeprobabilidaddesalida. Enestecaso,sielp-valorasociadoalestadísticoT,oproba-bilidaddesalida,esmayorqueundeterminadovalorcrítico,lavariableseráeliminada.ElSPSSpordefectoestableceen0.1elvalorcríticodelaprobabilidaddesalida(nótesequeconlafina-

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS• 6 •

lidaddequeunavariablenopuedaentrarysalirdelaecuaciónendospasosconsecutivos,elvalorcríticodelaprobabilidaddesalidadebesermayorqueeldelaprobabilidaddeentrada).Enelcasoprácticoquerecogemosenlosresultadospuedeapreciar-sequelasdosvariables independienteshansuperadoloscrite-riosdeentradaydesalida.

3.-Límitealnúmerodepasos. Porúltimo,yparaevitarqueelprocesodeselecciónsecon-viertaenunprocesocíclicosedebeestablecerunnúmerolímitedepasos.Normalmenteestelímiteeselqueequivalealdobledelnúmerodevariablesindependientes.

Encadapaso,enelqueseintroduceoeliminaunavariable,se obtienen los estadísticos de bondad de ajuste (R, R2, R2corregido,errortípicodelaestimación),elanálisisdevarianzaylaestimacióndeparámetrosconsiderandolasvariablesintroduci-das.ElSPSSofrecedostablasconestainformación:enlapri-meraresumelosestadísticosdebondaddeajusteyenlasegun-danospresentaelanálisisdevarianza.Enellassecomparanlosresultadosobtenidosparacadaunadelasecuacionesomodeloobtenidosconlasecuenciadepasosutilizados.Ennuestroejem-plo,ydadoquedoshansidolasvariablesincluidasenlaecua-ción,doshansidolospasos,dossonlosmodelosdefinidos:elprimero sólo incluye una variable explicativa, mientras que elsegundoutilizalasdosvariablesindependientes.

Acontinuaciónexponemoslosprincipaleselementosacon-siderar en el análisis de regresión múltiple. Recordemos queéstosyaseexpusieronenelcapítuloderegresiónsimple.Aquíenfatizamosaquellosaspectosquedebemosconsiderarcuandoéstossonaplicadosenelanálisisderegresiónmúltiple.

1.-CoeficientedeCorrelaciónMúltiple(MúltipleR). Midelaintensidaddelarelaciónentreunconjuntodevaria-bles independientes y una variable dependiente. La primeravariablequeseintroduciráenelmodelo,primerpaso,seráaque-lla que ofrezca una correlación parcial más alta. Para ello esnecesario calcular lamatriz de correlaciones parciales. En ella

3. Bondad de ajuste de los datos al modelo de regresión lineal múltiple

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 7 •

debemos observar: (1) la interrelación entre las variables inde-pendientes; y (2), la relación entre cada una de las variablesindependientesrespectoaladependiente.Enelprimercaso,loscoeficientesdebenserbajospues,delocontrario,cabelaposi-bilidadqueentreellasseproduzcamulticolinealidad(diferentesvariablesexplicanlomismodelavariabledependiente).Porsuparte, en el segundo caso, las relaciones deben ser altas. Ennuestroejemplo,ypor loquerespectaa lasvariables indepen-dientes,sucorrelaciónnosoloesmásaltaquebaja(0,523)sinoque además existe relación entre ellas (su significación seencuentra por debajo de 0.05). Por su parte, ambas variablesindependientesexplicanalavariabledependienteperoeslapri-meralaquelohacedeformamásintensa.Ensíntesis,yatenordelosresultadosobtenidos,tantolap7bcomolap7cexplicanlomismodelavariabledependiente.Estaesunacuestiónquehayquetenerencuentaalahoradedecidirquévariablessonlasqueentranenelmodelo.

Loscoeficientesdecorrelaciónparcialoscilanentre1(fuerteasociaciónlinealpositiva:amedidaqueaumentenlosvaloresdeunavariableaumentarán losde laotra)y–1 (fuerteasociaciónlinealnegativa:amedidaqueaumentenlosvaloresdeunavaria-bledisminuyenlosdelaotra).Cuandolosvaloresdeesteestadís-tico se aproximen a 0 nos estará indicando que entre las dosvariablesnoexisteasociaciónlinealy,enconsecuencia,carecedesentidodeterminarelmodeloy/oecuaciónderegresiónlineal.

Paradeterminarsilaasociaciónesestadísticamentesignifica-tivapodemoscontrastarlaH0dequeelcoeficientedecorrelaciónlinealesiguala0;oloqueeslomismo,quelasdosvariablesestán incorrelacionadas.Sielp-valorasociadoalestadísticodecontraste(r)esmenorqueelniveldesignificaciónelegido(nor-malmente0.05)rechazaremosH0.Enlamatrizdecorrelacionesserecogenestosdosvalores:enprimerlugarapareceelgradode relación (coeficiente de correlaciónparcial) que se produceentre las dos variables que cruzamos; y en segundo lugar, lasignificaciónestadísticadeesarelación.

Lacorrelaciónmásaltaentreelcrucedeunavariableinde-pendiente con la dependiente será el valor deMultiple R queaparezcaenelprimerpaso.Ennuestroejemplo lacorrelaciónparcialmásaltaes lade lavariable independientep7B.Por lotanto,laprimeraRqueapareceenelprimermodeloes0.871.Ademásestacorrelaciónessignificativa(sig.0.000).

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS• 8 •

2.- Coeficiente de Correlación Múltiple al Cuadrado oCoeficientedeDeterminación(RSquare“R2”). Midelaproporción(porcentajesilomultiplicamospor100)de la variabilidad de la variable dependiente explicada por lasvariablesindependientequeenesemomentohansidoadmitidasenelmodelo.ApartirdelresumendelosmodelosgeneradospasoapasopodemoscalcularelincrementodeR2,siendoésteuna estimación de la importancia relativa que tiene la variableque acabamos de introducir en el paso correspondiente parapredecir la variable dependiente. En nuestro caso el segundomodelo(aquelqueconsideralasdosvariablesexplicativas)mejo-raalprimero(soloconsideraunavariableexplicativa).Lavariabi-lidadexplicadaporelprimeroesdel75%mientrasque ladelsegundoesdel78%.Al introducirunasegundavariablesehamejoradoelmodelopuessehaincrementadoenun3%lavaria-bilidad total explicada. Ahora bien, ¿consideramos significativoeste incremento hasta el punto de decidir que incluimos estavariableenelmodelo?;oporelcontrario,¿estaninsignificantequenocabeintroducirlo?;¿al introducirloexplicamosmásconelmenornúmerodevariables?Lacontestaciónaestos interro-gantesvariasinosencontramosanteunmodeloconmásvaria-blesindependientesdelasconsideradasennuestroejemplo.Ennuestrocasolap7cnoesincluidaenelmodelodefinitivoy,porlotanto,noformarápartedelaecuaciónpredictiva.

3.- Coeficiente de Determinación Ajustado (Adjusted RSquare). ElcoeficientededeterminaciónmidelomismoqueR2peroenestecasonoquedainfluenciadoporelnúmerodevariablesqueintroducimos.

4.-ErrorTípicodePredicción(ETB). Porúltimo,elerrortípicodelapredicciónnosindicalapartedelavariabledependientequedejamosporexplicar.Amedidaqueseincrementaelcoeficientededeterminaciónelerrordes-ciende.Ennuestroejemplo,enelprimermodeloelETBesde1.05mientrasqueenelsegundoesde0.99.

5.-AnálisisdeVarianza. LatabladeanálisisdevarianzaqueincluyeensusalidaderesultadoselSPSSnospermitevalorarhastaquépuntoesade-cuadoelmodeloderegresiónlinealparaestimarlosvaloresdelavariabledependiente.Latabladeanálisisdevarianzasebasaenquelavariabilidadtotaldelamuestrapuededescomponerse

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 9 •

entre la variabilidad explicadapor la regresión y la variabilidadresidual.LatabladeANOVAproporcionaelestadísticoFapartirdel cual podemos contrastar laH0 de queR2 es igual a0, lapendientede la rectaderegresiónes iguala0,o loquees lomismo,lahipótesisdequelasdosvariablesestánincorrelaciona-das.Sielp-valorasociadoalestadísticoFesmenorqueelniveldesignificación(normalmente0.05),rechazaremoslahipótesisnulaplanteada.Delmismomodopodremosconsiderarquelosresultados obtenidos con la muestra son generalizables a lapoblaciónalaquepertenecelamuestra.

Enelcasodeanálisisderegresiónmúltiplelatabladelaná-lisisdevarianzanosindicalosp-valoresasociadosalestadísticoFencadaunodelosmodelosgenerados.6.-AnálisisdeResiduales. Comoyahemoscomentadolosresiduos,“e”,sonlaestima-cióndelosverdaderoserrores.EnregresiónlinealladistribucióndelavariableformadaporlosresiduosdebeserNormal,estoes,losresiduosobservadosylosesperadosbajohipótesisdedistri-buciónnormaldebenserparecidos.Además,losresiduosdebenserindependientes.Enconsecuencia,elanálisisdelosresidualesnosvaapermitirnosoloprofundizarenlarelaciónquesepro-duce entre las variables, sino también, ponderar la bondad deajustedelaregresiónobtenida.

Para contrastar la supuesta normalidad de los residualespodemosrecurrir,fundamentalmente,alarepresentacióndedosgráficos: (1) el gráfico de residuales tipificados (gráfico 1 del anexo de resultados) nos da idea de cómo se distribuyen losresiduos en relación a la distribuciónnormal (que sería la quecabríaesperardelosmismos).Siambasdistribucionessonigua-les(ladistribucióndelosresiduosesnormal)lospuntossesitúansobreladiagonaldelgráfico.Porlocontrario,enlamedidaqueaparecendispersosyformandolíneashorizontalesrespectoaladiagonal,habrámásresiduosyelajusteserápeor;(2)elgráficodeprobabilidadnormal(gráfico 2 del anexo de resultados)com-paragráficamente,alsuperponerlacurvadedistribuciónnormal,lafuncióndedistribucionesacumuladaobservadasenlamuestraconlafuncióndedistribuciónacumuladaesperadabajosupues-tosdenormalidad.

PorsuparteelestadísticodeDurbin-Watsonmideelgradodeautocorrelaciónentreelresiduocorrespondienteacadaobser-

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS• 10 •

vaciónyelanterior(silosresiduossonindependientes,elvalorobservado en una variable para un individuo no debe estarinfluenciadoenningúnsentidopor losvaloresdeestavariableobservadosenotroindividuo).Sielvalordelestadísticoespróxi-moa2losresiduosestánincorrelacionados;siseaproximaa4,estaránnegativamenteincorrelacionados;ysiseaproximana0estaránpositivamenteincorrelacionados.

Unavezqueyahemosanalizadoelcaráctereintensidaddela relaciónentre lasvariables,podemosprocederaestimar losparámetrosde laecuacióndepredicciónode regresión lineal.En el caso del análisis de regresiónmúltiple tendremos tantasecuaciones como modelos o pasos hayamos efectuado. Detodoselloselegiremosaquelquemejorseajuste.Ésteeselulti-modelosmodelosgenerados.

ElcriterioparaobtenerloscoeficientesderegresiónB0,B1yB2 es el demínimos cuadrados.Este consiste enminimizar lasumadeloscuadradosdelosresiduosdetalmaneraquelarectaderegresiónquedefinamoseslaquemásseacercaalanubedepuntosobservadosy,enconsecuencia, laquemejor los repre-senta.

Losestadísticosasociadosalavariableindependientequeapasadoaformarpartedelmodeloderegresiónsimpleson:

1.-CoeficientederegresiónB. Este coeficiente nos indica el número de unidades queaumentarálavariabledependienteocriterioporcadaunidadqueaumentelavariableindependiente.

2.-SEB. ErrortípicodeB.

3.-CoeficienteBeta. ElcoeficienteBetaeselcoeficientederegresiónestandariza-do.ExpresalapendientedelarectaderegresiónenelcasodequetodaslasvariablesesténtransformadasenpuntuacionesZ.

4. Estimación de los parámetros o coeficientes de regresión: la ecuación de predicción o ecuación de regresión múltiple

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 11 •

4.-Constante. Elvalorde laconstantecoincideconelpuntoenelque larectaderegresióncortaelejedeordenadas.Enlaecuacióndepredicción se mantiene constante para todos los individuos.Cuandolasvariableshansidoestandarizadas(puntuacionesZ)osiseutilizanloscoeficientesBeta,laconstanteesiguala0porloquenoseincluyeenlaecuacióndepredicción.

5.-Tolerancia. Latolerancia(T)deunavariableenunpasocualquieradelanálisisstepwiseeslaproporcióndesuvarianzaintra-gruponoexplicadaporotrasvariablesdelanálisis(1-R2).Antesdeincluiruna variable en elmodelo se comprueba que su tolerancia essuperioralnivelfijado.Sielvalordelatoleranciadeunadelasvariables independientes es próximo a0podemospensar queéstaesunacombinaciónlinealdelrestodevariables.Sinembar-go,sielvalordeTseaproximaa1,lavariableencuestiónpuedereducirpartedelavarianzanoexplicadaporelrestodevariables.Seexcluyendelmodelolasvariablesquepresentanunatoleran-ciamuypequeña.

6.-ValorT. ElestadísticoTnospermitecomprobarsilaregresiónentreunavariableindependienteyladependienteessignificativa.Sielp-valor asociado al estadístico T (Sig T) esmayor al nivel designificación(normalmente0.05)rechazaremosquelaregresiónseasignificativaparalasdosvariablesrelacionadas.

Atenordelosresultadosarrojadossólonosrestaconstruirlaecuaciónpredictiva.EnelejemploqueserecogeenlaseccióndeResultados, la transcripción de los resultados a la ecuaciónquedaríacomosigue (al tener lasvariables lamismaescala setomanloscoeficientesdeB):

Y=a+b1x1+eó

presente(p7A)=0,51+0,87pasado(p7B)+e

Enelsupuestocasodequelosvaloresdelasvariablessiguie-ranunaescaladiferente,tendríamosqueestandarizarutilizandoloscoeficientesBeta,ynoB.Delmismomodo,alcontarconlamismaescalalaconstanteserácero.

presente(p7A)=0+0,87pasado(p7B)+e

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS• 12 •

Los pasos para la construcción del modelo son los quesiguen.

1erpaso:ParaaccederalCuadrodeDiálogodelAnálisisdeRegresiónLineal,deberemosseguirAnalizar:Regresión:Lineal(figura 1).

2º paso:Allí seleccionaremos la variableDependiente quequeremos explicar a partir de un conjunto de variablesIndependientes. Las variables seleccionadas las pasamos laspasamosasusrespectivoscuadros(figura 2).Enelejemploqueproponemos las variables seleccionadas han sido las variablescontinuasp7ASITUACIÓNACTUALESPAÑOLAcomovaria-ble dependiente o criterio y p7B SITUACIÓN ESPAÑOLAPASADAyp7CSITUACIÓNESPAÑOLAfuturacomovariablesindependientesopredictoras.

3erpaso:Enelcuadroprincipal,yunavezseleccionadaslasvariables,deberemoselegirelMétodoquevamosaseguirparalaobtencióndelmejormodeloderegresiónlineal.ElmétododeentradadedatosalmodeloquevamosaseleccionaresdePasossucesivos(oStepwise)(figura 2).

4º paso: Cliqueando en Estadísticos, botón de comandosituadoenlaparteinferiordelcuadrodediálogoprincipal,acce-demosalarelacióndelosprincipalesestadísticosvinculadosconel análisis de regresión.Nuestro interés se va a centrar, funda-mentalmente,enlasopciones:Descriptivos(noscalculalamediaydesviación típicadecadaunade las variablesque introduci-mos,nospresentalamatrizdecorrelacionesasícomoelanálisisde varianza); Ajuste delmodelo yCambio enR cuadrado; enCoeficientes de regresión solicitaremos las Estimaciones; y enResiduospediremoselestadísticodeDurbin-Watson(figura 3).

5º paso: Como complemento al estadístico de Durbin-Watsonpodemossolicitar losgráficosHistogramayGráficodeprobabilidadnormal(figura 4).Paraaccederaestesubcuadrodediálogo debemos cliquear en el botón de comando Gráficossituado en la parte inferior del cuadro de diálogo principal deregresiónlineal.

5. Cuadro de Diálogo del Análisis de Regresión Múltiple

Figura 1

Figura 2

Figura 3

Figura 4

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 13 •

Latécnicadeanálisisderegresiónmúltiple,adiferenciadelmodeloderegresiónsimple,seencuentramuygeneralizaenlainvestigaciónsocial.EnesteapartadopresentamoslaaplicacióndelmodeloderegresiónmúltipleparalaestimacióndelProductoInteriorBruto(P.I.B.).

•Díaz-Agero,Coral(1999):“Indicadoressintéticos”,(enlínea)<http//www.festadisticas.fguam.es/indicadores/iae.html>(consultadoel4deabrilde2001).

En este artículo la autora recoge el proceso que se sigue para convertir una batería de indicadores económicos representativos de la evolución de una macromagnitud en un índice compuesto o indicador sintético para a partir de éste realizar predicciones sobre la evolución de sus indicadores base. Dos cuestiones son las que hay que resolver: cómo se agregan los indicadores parciales y de qué forma participan cada uno de los indicadores parciales en la síntesis final. La autora agrega los indica-dores parciales aplicando el procedimiento stepwise y cada uno de ellos participa ponderándose por sus res-pectivos coeficientes de correlación. De esta manera llega a concretar el indicador sintético cuantitativo del P.I.B.

Losresultadosqueserecogenenlasalidaderesultadosson,enesencia,losmismosqueyahemoscomentadoenelcapítulodedicadoalmodeloderegresión linealsimple.Éstos lospode-mosagruparentornoalossiguientespuntos.

• En primer lugar, el programa nos ofrece una serie detablasquerecogeninformaciónbásicatantodelprocesocomo de las variables sometidas a análisis. Dentro deesteprimergrupocabedestacarlastablasdedescriptivosbásicosyladematrizdecorrelaciones.

• A continuación, se presenta una tabla (resumen delmodelo)enlaqueserelacionaunaseriedeestadísticos

7. Resultados

6. Bibliografia Comentada

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS• 14 •

apartirdeloscuálesvalorarlabondaddeajustedelosdatosdelmodelo.Conlamismafinalidadsepresentalatabladeanálisisdevarianza.

• Entercerlugar,nosencontramosconlatablaenlaqueaparecenloscoeficientesdelaecuaciónpredictiva.Éstaseformaapartirdeloscoeficientesnoestandarizados(B)cuandolosvaloresdelasdosvariablestienenlamismaescala.Enelcasocontrariodeberemoselegir loscoefi-cientesBeta.

• Porúltimo,laexposiciónderesultadossecierraconunaseriederepresentacionesgráficascuyafinalidadesfacili-tar el análisis del tipo de distribución de los residuales(gráficoderesiduostipificadosygráficodeprobabilidadnormal).

7.1. Estadísticos básicos

7.2. Matriz de Correlaciones Parciales

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 15 •

7.3. Resumen del proceso STEPWISE: relación y eliminación de variables

7.4. Estadísticos de Bondad de Ajuste

7.5. Tabla de Análisis de Varianza

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS• 16 •

7.6. Estimaciones de parámetros o coeficientes de correlación: la ecuación de predicción

7.7. Variables excluidas del Modelo

C a p í t u l o 4A n á l i s i s d e R e g r e s i ó n M ú l t i p l e

Estadística Informática: casos y ejemplos con el SPSS • 17 •

7.8. Gráfico de distribución de residuales (gráfico 1)

Gráfico de probabilidad normal (gráfico 2)