Tema 4. Resumen Sesion 09.10.09

14
4 2 5 1 0011 0010 1010 1101 0001 0100 1011 4 2 5 1 0011 0010 1010 1101 0001 0100 1011 Tema 4. Análisis de correlación y de regresión lineales Resumen sesión 09/10/09 MBA 2009/2010 Alfonso Baztán

Transcript of Tema 4. Resumen Sesion 09.10.09

Page 1: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Tema 4.

Análisis de correlación y de

regresión lineales

Resumen sesión 09/10/09

MBA 2009/2010

Alfonso Baztán

Page 2: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Recta de regresión

• Recordemos que se trata de aquella que

mejor se ajusta a la nube de puntos:

• Como toda recta, es del tipo:

• La que mejor se ajusta sigue el criterio de

mínimos cuadrados. Minimiza:

ii BXAY

N

i

iiYY

1

Page 3: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Recta de regresión

• Combinando las dos expresiones anteriores

obtenemos la siguiente a minimizar:

• Para calcular el mínimo de la expresión

tenemos que derivar respecto a A y B.

N

i

ii BXAYMinMinSCR

1

2*

* Suma de los Cuadrados de los Residuos.

Page 4: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Derivando

• Derivada respecto a A: • Derivada respecto a B:

N

i

ii BXAYSCR

1

2

N

i

ii

N

i

ii

N

i

ii

N

i

ii

BXAY

BXAY

BXAYA

BXAYA

1

1

1

2

1

2

0

0)1(2

N

i

iii

N

i

iii

N

i

ii

N

i

ii

XBXAY

XBXAY

BXAYB

BXAYB

1

1

1

2

1

2

0)(

0)(2

Page 5: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Desarrollamos las expresiones

• Derivada respecto a A: • Derivada respecto a B:

N

i

N

i

ii

N

i

N

i

ii

N

i

ii

XBNAY

XBNAY

BXAY

1 1

1 1

1

0

)(

1

2

11

1

2

11

1

N

i

i

N

i

ii

N

i

i

N

i

i

N

i

ii

N

i

i

N

i

iii

XBXAYX

XBXAYX

XBXAY

XBYA

XBAY

Page 6: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Las expresamos como sistema

matricial

• A partir de las dos expresiones obtenidas

tras desarrollar las derivadas formamos un

sistema con matrices:N

i

N

i

ii XBNAY

1 1

N

i

i

N

i

ii

N

i

i XBXAYX

1

2

11

ii

i

ii

i

YX

Y

B

A

XX

XN

2

Page 7: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Las expresamos como sistema

matricial

• El objetivo es despejar como sigue:

• Tenemos que operar con las matrices para

llegar a la expresión de arriba.

ii

i

ii

i

YX

Y

XX

XN

B

A

1

2

Page 8: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Operamos con las matrices

• Cálculo del determinante:

• Cálculo de la matriz de adjuntos:

22

2 ii

ii

i

XXNXX

XN

NX

XX

i

ii

2

Page 9: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Operamos con las matrices

• Cálculo de la matriz inversa:

• Ya lo tenemos todo, vamos a sustituir…

NX

XX

XXNXX

XN

i

ii

iiii

i

22

1

2

1

Page 10: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Operamos con las matrices

• Esta es la expresión completa:

ii

i

i

ii

iiYX

Y

NX

XX

XXNB

A

22

1

Page 11: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Operamos con las matrices

• Obtenemos B:

22

2

2

22

XNX

YXNYXB

N

XX

YXNYX

XXN

YXYXNB

i

ii

i

i

ii

ii

iiii

Page 12: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Los valores A y B

XBYA

22

XNX

YXNYXB

i

ii

¡¡ Estos valores son los que forman

nuestra recta de regresión que nos

predice qué valores tomará la variable

dependiente!!

•Si no empleásemos nuestra recta para

medir cometemos el error:

•Empleando la recta es:ii

i

YY

YY

ˆ

Page 13: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

Aplicado al caso altura&peso

B AxB

Altura Peso Peso estimado Desv-peso (Desv-peso)^2 Producto Desv Residuos Peso Residuos^2

176 82 78,52 4,2 17,4 3 3 12

145 52 46,68 -25,8 667,4 784 5 28

168 58 70,30 -19,8 393,4 145 -12 151

187 83 89,81 5,2 26,7 60 -7 46

191 102 93,92 24,2 584,0 379 8 65

185 90 87,76 12,2 148,0 118 2 5

Media(µ) 175 78 SCR 308 Usando modelo 308

Varianza 242 306Sin emplear recta

para predecir 1.837

Desv. Tipica 1617

(1.837-308)/308= 83,21%me elimina el 83% de la

Suma - - 0 1.837 1.488 incertidummbre.

Coeficiente 0,912181357 elevado al cuadrado 83,21%=R2

correlacónCoeficiente de determinación

USANDO SOLVER:

A -102,2137801

B 1,026884866

Page 14: Tema 4. Resumen Sesion 09.10.09

425

13

0 0 1 1 0 0 1 0 1 0 1 0 1 1 0 1 0 0 0 1 0 1 0 0 1 0 1 1

En resumen

•Usar siempre la recta de regresión para predecir.

•R2 es el coeficiente de determinación y mide la proporción de

variabilidad eliminada por la recta de regresión:

Se expresa en %.

R2 = 1 implica que la relación lineal es perfecta. Se elimina toda la

variabilidad de la variable a estimar.

R2 = 0 implica que no hay relación lineal entre las variables. No se

elimina nada de variabilidad.