CONTRASTE Y VALIDACIÓN DE UN MODELO
description
Transcript of CONTRASTE Y VALIDACIÓN DE UN MODELO
MEDIDAS Y CONTRASTES
Contraste de significación estadística
Medidas de Bondad a priori
Validación de un modelo a posteriori
Contraste de Hipótesis Básicas
MEDIDAS Y CONTRASTES
Contraste de significación estadística
Medidas de Bondad a priori
Validación de un modelo a posteriori
Contraste de Hipótesis Básicas
MEDIDAS Y CONTRASTES
Contraste de significación estadística
a) Significación de los parámetros
Dado el modelo:
Los parámetros no son sino aproximaciones cuantitativa del efecto que tiene sobre la variable dependiente un cambio en la variable independiente j, permaneciendo el resto de factores constantes
kikiii XXXY ˆˆˆˆˆ33220
ji
ij X
Y
ˆ
El primer contraste elemental es que el signo del parámetro. Este deber corresponder con el que cabe esperar a priori, dado el marco teórico que existente sobre las relaciones entre estas variables.
MEDIDAS Y CONTRASTESEspecificación del modelo: Nivel-Nivel
Significación/interpretación de los parámetros
nta9,215517Reecios4,899425Pr-2,988506 Demanda
El término se interpreta como el pronóstico de Y cuando las Xj se anulan
0
La interpretación de los parámetros corresponde al número de unidades que varía en media Y cuando la variable j varía en una unidad, permaneciendo el resto de variables constantes
MEDIDAS Y CONTRASTES
Especificación del modelo: Log-Log
Significación/interpretación de los parámetros
Renta1,95112recios0.704321LP-957683.0 LLDemanda
j
La interpretación de los parámetros se efectúa en términos de elasticidades, lo que supone que cuando la variable j se modifica en 1%, la variable dependiente cambia en %, permaneciendo el resto de variables constantes.
MEDIDAS Y CONTRASTESEl valor de los parámetros estimados dependen directamente de la unidad de medida de las variables explicativas. Si los valores de variable j se multiplica por el factor w, el correspondiente parámetro se verá reducido en la misma proporción (w) y viceversa
No obstante, contribución de cada variable al cambio de la variable dependiente permanece inalterado
nta9215,517Reecios4,899425Pr-2,988506 Demanda
Si se multiplica la variable renta por w=1/1000, el valor del nuevo parámetro se muestra a continuación
MEDIDAS Y CONTRASTESEn cambio si los valores de variable dependiente (Y) se dividen por el factor w, todos los parámetros se verán reducido en la misma proporción (w) y viceversa.
9216Renta00,0ecios0,004899Pr-298900,0 Demanda
Si w=1/1000, la nueva estimación arroja los siguientes resultados
MEDIDAS Y CONTRASTESEl hecho de que las unidades en las que se expresan tanto la variable dependiente como las independientes influyen en el valor del parámetro, imposibilita determinar la contribución real de las variables independientes en la explicación de la variable objeto de estudio .
Esto puede evitarse obteniendo el modelo a partir de las variables normalizadas o estandarizadas
Y
i YYY
*
jX
ji XXX
*
Donde YjX=media muestral de la variable dependiente
=media muestral de las variable independiente j
YXj
=desviación típica de la variable dependiente
=desviación típica de la variables independiente j
MEDIDAS Y CONTRASTESLos coeficientes de regresión obtenido a partir de variables estandarizadas se les denomina coeficientes Beta.
kikiii XXXY *ˆ*ˆ*ˆ*ˆ*ˆ33220
kikiii XXXY *ˆ*ˆ*ˆ*ˆ3322
La interpretación de los parámetros se efectúa en términos de desviaciones típicas. Un incremento de una desviación típica de la variable j, incrementa la variable dependiente en unidades de desviación estándar.
*ˆj*iY
La principal ventaja de expresar las variables en una misma unidad de medida es que permite la comparación de manera directa. La variable independiente cuyo coeficiente sea en término absoluto superior al resto, será la variable que contribuya en mayor medida a explicar la variable dependiente.
MEDIDAS Y CONTRASTES
Variables en niveles Variables Tipificadas
Estimación del modelo con las variables tipificadas coeficientes Betas
Ejemplo de clase
En este caso, la variable renta es la que contribuye en mayor medida a explicar la demanda de turismos
MEDIDAS Y CONTRASTES
kX
kkik
X
i
X
i
Y
i XXXXXXYY
***32
333
222
Estimación del modelo con las variables tipificadas
Y
jXjj
*
Relación entre los parámetros directamente estimados y los coeficientes beta
Ejemplo de clase
MEDIDAS Y CONTRASTES
Contraste de Significación Estadística
En el contraste de significación estadística se somete a hipótesis algún valor desconocido de los parámetros ( ) y se trata de verificar si el valor del parámetro j calculado, a partir de una muestra, se encuentra dentro de los límites (de confianza) alrededor del valor sometido a hipótesis.
b) Contrastes de significación individual de los parámetros
jj
Se puede contrastar la hipótesis de que un determinado parámetro sea igual, menor o mayor que una constante C. Existe en econometría un contraste llamado contraste de significación estadística en el que se plantea que el valor del parámetro sea igual a cero. En el caso de que la hipótesis nula resulte cierta, supone que la correspondiente variable asociada a ese parámetro no tiene influencia, de forma individual, (estadísticamente hablando), sobre la variable dependiente.
0:0 jH 0:1 jH Hipótesis Nula Hipótesis Alternativa
MEDIDAS Y CONTRASTESContraste de Significación
b) Contraste de significatividad individual de los parámetros
Se podría pensar en trabajar con los coeficientes estandarizados y no realizar el contraste de hipótesis, sin embargo este hecho no garantiza que aquél cuyo valor se aproxime a cero indique ausencia real de esta variable en la explicación de la variable dependiente. Por tanto se tendrá que tomar en cuenta la distribución estadística del estimador así como su dispersión.
Dado que se desconoce el verdadero valor de la varianza de la perturbación aleatoria no es conveniente emplear la distribución normal para el cálculo de contrastes estadísticos y de intervalos de confianza. En su lugar se empleará la distribución t de Student como alternativa, ya que no presenta este inconveniente.
Retomando las propiedades de los parámetros y considerando que éstos son una función lineal de la perturbación aleatoria, se concluye que son de igual modo una variable aleatoria que seguirán una distribución del tipo:
j )(;( 2jjj aN
MEDIDAS Y CONTRASTESContraste de Significación Estadística
Por tanto partiendo de la expresión tipificada (Z) de los parámetros (restada su media y divididos por su desviación típica) se puede obtener la siguiente expresión .
jjjjjj a
kneéaa
Z
ˆ
ˆ
ˆˆ
Donde .
kn
eé
2 Representa el estimador insesgado de la varianza de la
perturbación aleatoria
jjaRepresenta el elemento ubicado en la fila y columna j de diagonal principal de la matriz (X´X)-1
b) Contraste de significatividad individual de los parámetros
MEDIDAS Y CONTRASTES
Por tanto, en la práctica al utilizar el estimador insesgado de la perturbación aleatoria se concluyen que los parámetros se distribuyen como una t de student con n-k grados de libertad.
kn
jjjjjj
t
akn
eéaaZ
ˆ
ˆ
ˆˆ
El estadístico resultante sigue una distribución t de Student con n-k grados de libertad.
Contraste de Significación Estadística
b) Contraste de significatividad individual de los parámetros. La prueba T
MEDIDAS Y CONTRASTES
Dado que:
Se puede contrastar distintas hipótesis sobre el valor de los parámetros. La más común es
2/2/
ˆ
ˆ
kn
jj
jjkn t
at
)0(0 jH versus )0(1 jH
jj
j
at
ˆ
0ˆ(exp)
Estadístico de Contraste Regla de decisión
2/
ˆ
0ˆ
kn
jj
j ta
Se rechaza H0Si
Si Se acepta H02/
ˆ
0ˆ
kn
jj
j ta
Contraste de Significación Estadísticab) Contraste de significatividad individual de los parámetros. La prueba T
MEDIDAS Y CONTRASTES
jjat
ˆ
ˆexp
36918,15599610,0
0215517,9
ˆ
ˆexp
jjat
Continuando con el ejemplo de clase
Variable Renta
Variable Precios 003706,5979159,0
0899425,4
ˆ
ˆexp
jjat
Ambos parámetros resultan estadísticamente distinto de cero dado que superan en términos absolutos al valor de la T de tablas (2,571) con 95% grados de confianza.
Contraste de Significación Estadística
b) Contraste de significatividad individual de los parámetros. La prueba T
MEDIDAS Y CONTRASTES
Cuando una hipótesis estadística es aceptada o rechazada con base a los resultados de una muestra, siempre existe la posibilidad de tomar una decesión equivocada, concretamente:
La conclusión de prueba t, sobre la significación estadística de los parámetros, se puede alcanzar de igual modo empleando el Prob (en el caso de eviews) o de significatividad asociada, que mide la probabilidad que se tiene de cometer el error tipo I. Si el valor de este estadístico resulta inferior al nivel de confianza con el que el investigador trabaja, entonces se deberá rechazar la hipótesis nula.
• Rechazar la hipótesis nula siendo cierta (Error tipo I)• Aceptarla la hipótesis nula siendo falsa (Error tipo II)
Contraste de Significación Estadística
c) Contraste de significatividad individual de los parámetros. Error Tipo I y Tipo II
MEDIDAS Y CONTRASTESContraste de Significación estadística
Continuando con el ejemplo de clase
Variable Renta:
Variable Precios
El valor Prob (0,0000) es inferior al 0,05 (5%), lo que supone que podemos rechazar la H0 con un 100% de confianza
El valor Prob (0,0041) es inferior al 0,05 (5%), lo que supone que podemos rechazar la H0 con un 99,59% de confianza
c) Error Tipo I y Tipo II
MEDIDAS Y CONTRASTESContraste de Significación estadística
d) Intervalos de Confianza
En el cálculo del intervalo de confianza se trata de establecer un rango (dos valores) con una probabilidad determinada, en el que se debe contener el verdadero, aunque desconocido, valor del parámetro ( ).
La idea que subyace en la estimación por intervalos es tener alguna idea acerca de la precisión de los estimadores o coeficientes puntuales calculados. Como cabría esperar, un buen estimador puntual es aquel cuyo valor está cercano al verdadero valor del parámetro (valor poblacional). Sin embargo, debe tomarse en cuenta que los estimadores son estadísticos muestrales, y en consecuencia son una variable aleatoria. Esto es razón suficiente para considerar que se necesita una posible medida del error, que se comente al usar un estimador puntual del parámetro.
j
MEDIDAS Y CONTRASTES
2/2/
ˆ
ˆ
kn
jj
jjkn t
at
Contraste de Significación estadística
d) Intervalos de Confianza
Se puede escribir de manera genérica del siguiente modo
1ˆˆP Los límites del intervalo también son una variable aleatoria, dado que son función del estimador y varían de una muestra a otra
De forma más concreta y despejando el parámetro real de la siguiente expresión:
Se obtiene:
1ˆˆˆˆPr 2/2/jjknjjjjknj atat
MEDIDAS Y CONTRASTESContraste de Significación estadística
d) Intervalos de Confianza. Trabajando con un nivel de confianza del 95%
Para el parámetro asociado a la variable Renta:
= 9,215517+/-(0,599610*2,571)
Para el parámetro asociado a la variable Precios:
= 7,6739196; 10,3571143
Continuando con el ejemplo de clase
= -4,889425+/-(0.979159*2,571)
= -7,4068428; -2,3720072
MEDIDAS Y CONTRASTESContraste de Significación estadística
e) Coeficiente de Determinación.
Calculados los parámetros y evaluada su significación estadística, se procederá a evaluar la bondad global de la recta de regresión estimada, en otras palabras se evaluará qué tan bien se ajusta la misma a la muestra de datos seleccionados.
Uno de los estadísticos empleado para ello es el denominado R2, que corresponde a una medida en la cual se explica el porcentaje de variación de la variable dependiente explicada por todas las variables independientes incluidas en el modelo.
Forma de Estimación:2
1
2
1
2
1
)ˆ()ˆ()(
n
iii
n
ii
n
ii YYYYYY
2
1
)(
n
ii YY
Donde
2
1
)ˆ(
n
ii YY
2
1
)ˆ(
n
iii YY
= STC (suma total de cuadrados): Variación total de los valores reales respecto a su media muestral
= SEC (suma explicada de cuadrados): Variación de los valores estimados (Y i) alrededor de su media
= SRC (suma explicada de cuadrados): Variación residual o no explicada o la suma de los residuos al cuadrados
MEDIDAS Y CONTRASTESContraste de Significación estadística
e) Coeficiente de Determinación.
Forma de Estimación (continuación). 2
1
2
1
2
1
)ˆ()ˆ()(
n
iii
n
ii
n
ii YYYYYY
Por tanto, la variación total de los valores observados (Y i) alrededor de su media puede ser dividida en dos partes, una atribuible a la recta de regresión y otra a las fuerzas aleatorias.
Si se divide todo por la STC, se tiene.
2
1
2
12
1
2
12
1
2
1
)(
)ˆ(
)(
)ˆ(
)(
)(
n
ii
n
iii
n
ii
n
ii
n
ii
n
ii
YY
YY
YY
YY
YY
YY
2
1
2
12
1
2
1
)(
)ˆ(
)(
)ˆ(1
n
ii
n
iii
n
ii
n
ii
YY
YY
YY
YY
STC
SRC
STC
SEC1O de otro modo
MEDIDAS Y CONTRASTESContraste de Significación estadística
e) Coeficiente de Determinación.
Forma de Estimación (continuación).
STC
SRC
STC
SEC1
Por tanto se puede despejar o definir el r2 o coeficiente de determinación del siguiente modo
STC
SRC
STC
SEC1 O lo que es lo mismo
2
1
2
1
)(
)ˆ(1
n
ii
n
iii
YY
YY
De otro modo, si se dividen la suma total de cuadrados por el tamaño de la muestra, se tendría todo en término de las varianzas.
nYY
nYY
nYY
nYY
nYY
nYY
n
ii
n
iii
n
ii
n
ii
n
ii
n
ii
/)(
/)ˆ(
/)(
/)ˆ(
/)(
/)(
2
1
2
12
1
2
12
1
2
1
2
2
2
2ˆ
2
2
y
e
y
y
y
y
S
S
S
S
S
S
MEDIDAS Y CONTRASTES
22
2ˆ RS
S
y
y
Contraste de Significación estadística
e) Coeficiente de Determinación.
Forma de Estimación (continuación).
2
2
2
2ˆ
2
2
y
e
y
y
y
y
S
S
S
S
S
S
De donde se define el coeficiente de determinación del siguiente modo:
2
2
1y
e
S
S
Siguiendo el procedimiento anterior, se puede definir igualmente como:
MEDIDAS Y CONTRASTESContraste de Significación estadística
e) Coeficiente de Determinación.Continuando con el ejemplo de clase
Partiendo de los estadísticos de las variables, se puede obtener el coeficiente de determinación
MEDIDAS Y CONTRASTES
979280,000,302.5
2644,1041
)(
)ˆ(1 2
1
2
1
n
ii
n
iii
YY
YY
2
2
1y
e
S
S
Contraste de Significación estadística
e) Coeficiente de Determinación.Continuando con el ejemplo de clase
En términos de las varianzas:
979280,08/00,302.5
8/2644,1041
/)(
/)ˆ(1 2
1
2
1
nYY
nYY
n
ii
n
iii
MEDIDAS Y CONTRASTES
1/
/12
nSTC
knSRCR
Contraste de Significación estadística
f) Coeficiente de Determinación ajustado.
Una propiedad del coeficiente del determinación es que es una función no decreciente del número de variables explicativas presentes en el modelo. Lo que supone que en la medida que aumenta el número de variables independientes en la ecuación, el R2 aumenta o por lo menos nunca disminuye
Por tanto, en la búsqueda de la mejor especificación para un modelo, se debe tener en cuenta el número de variables introducidas a la hora de evaluarlo a través del coeficiente de determinación. Para ello se puede emplear un estadístico alternativo, denominado coeficiente de determinación ajustado. Se denomina ajustado por los grados de libertad asociados a las sumas cuadráticas.
Forma de Estimación:
970992,018/00,302.5
38/2644,1041
1/)(
/)ˆ(1 2
1
2
1
nYY
knYY
n
ii
n
iii
Continuando con el ejemplo de clase
MEDIDAS Y CONTRASTES
1/
/12
nSTC
knSRCR
kn
nRR
1
)1(1 2222 RR
Contraste de Significación estadística
f) Relación del coeficiente de determinación y el coeficiente de determinación ajustado
A partir de la ecuación del coeficiente de determinación ajustado se puede intuir la relación entre ambos estadísticos
Con lo que:
De la ecuación se concluye que para k>1
Forma de Estimación: Continuando con el ejemplo de clase
970992,038
18)979280,01(1
1)1(1 22
kn
nRR
MEDIDAS Y CONTRASTESContraste de Significación estadística
g) Contraste o contraste F.
Corresponde al igual que el coeficiente de determinación a una medida representativa de la capacidad global o general del modelo estimado para seguir los cambios o la evolución de la variable dependiente. En esta prueba se contrasta la nulidad conjunta de todos los parámetros.
0...: 4320 kH
Hipótesis Nula Hipótesis Alternativa
Al menos uno de los coeficientes es distinto de cero:1H
Si se rechaza la hipótesis nula se puede afirmar que los parámetros respectivos de las variables X1, X2, X3,….Xk influyen conjuntamente de forma significativa en la explicación de la variable dependiente
Así el contraste F compara dos modelos, uno en que se impone alguna restricción en los parámetros (en este caso que todos los parámetros sean iguales a cero) frente a otro modelo que no tiene esta restricción.
MEDIDAS Y CONTRASTES
)1( nrrée
)1( nrrée
)/1( knkF
Contraste de Significación estadística
g) Contraste o contraste F.
knée
kéeéeF
knsrsr
knsrsrnrr
knk
/
1/
)(
)()1()/1(
Donde
Corresponde a la suma cuadrática del error del modelo restringido. Un modelo donde no se utilizan variables exógenas, o lo que es lo mismo un modelo donde se supone que cualquier variable exógena adicional no resultaría significativa.
Corresponde a la suma cuadrática del error del modelo sin restringir
Estadístico de Contraste Regla de decisión
Se rechaza H0Si
Si Se acepta H0
)/1( knkF
)/1( knkF > F tablas
< F tablas
)( knsrsrée
MEDIDAS Y CONTRASTESContraste de Significación estadística
g) Contraste o contraste F.
Continuando con el ejemplo de clase
Modelos con restricciones Modelos sin restricciones
MEDIDAS Y CONTRASTES
knée
kéeéeF
knsrsr
knsrsrnrr
knk
/
1/
)(
)()1(),1(
Contraste de Significación estadística
g) Contraste o contraste F.
Continuando con el ejemplo de clase
1548,11838/2644,104
13/2644,1045032
)38(
)38()18()5,2(
F
Regla de decisión
Dado que F(2,5) > F tablas (13,27), con 99% de confianza se rechaza la hipótesis nula
Dado que F(2,5) > F tablas (5,79), con 95% de confianza se rechaza la hipótesis nula
Con lo que al menos uno de los parámetros es distinto de cero.
MEDIDAS Y CONTRASTES
Contraste de significación estadística
Medidas de Bondad a priori
Validación de un modelo a posteriori
Contraste de Hipótesis Básicas
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
Consisten en la comparación entre los valores reales y los estimados por el modelo para la variable objeto de estudio.
Una vez que se haya realizado la valoración estadística del modelo, se puede llevar a cabo la valoración de los errores cometidos durante el proceso de estimación.
a) Análisis gráficos de los residuos.
Continuando con el ejemplo de clase
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
b) Medidas sobre los errores.
n
eeRECM
n
ii
1
2)(Raíz del Error cuadrático Medio
Error Medio Absolutos
Porcentaje Medio de Error
n
eEMA
n
i i 1
100*/
1
n
YePME
n
i ii
Unidad de Medidas
Porcentaje
Misma unidad de la variable dependiente
Misma unidad de la variable dependiente
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
b) Medidas sobre los errores.
Continuando con el ejemplo de clase
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
b) Medidas sobre los errores.
Continuando con el ejemplo de clase (salida de eviews)
-20
0
20
40
60
80
100
2001 2002 2003 2004 2005 2006 2007 2008
DEMANDAF ± 2 S.E.
Forecast: DEMANDAFActual: DEMANDAForecast sample: 2001 2008Included observations: 8
Root Mean Squared Error 3.610131Mean Absolute Error 2.803879Mean Abs. Percent Error 7.473916Theil Inequality Coefficient 0.036309 Bias Proportion 0.000000 Variance Proportion 0.005234 Covariance Proportion 0.994766
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
c) Análisis de puntos de cambio de tendencia.
En análisis de regresión sobre series temporales es frecuente que el modelo estimado represente la senda de largo plazo (tendencia) seguida por la variable objeto de estudio. No obstante, existen algunos puntos (máximos y mínimos locales) de especial interés o relevancia de cara la capacidad de modelo estimado en reproducirlos.
Tipos de cambio de Tendencia.
1 tt YY
Ocurre un máximo local cuando:
Por otro lado, ocurre un mínimo local cuando:
e 1 tt YY
e1 tt YY 1 tt YY
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
c) Análisis de puntos de cambio de tendencia.
Continuando con el ejemplo de clase
Para evaluar el modelo respecto de los cambios de tendencia se considera:
El porcentaje de cambios falsamente predichos respecto del total de cambios predichos (error tipo I)El porcentaje de cambios de tendencias fallados respecto del total de cambios de tendencia (error tipo II)
Error tipo I= 0/4 =0 Error tipo II = 0/4 =0
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
d) Diagrama de predicción realización.
Propuesto por Theil. Corresponden a un diagrama de dispersión donde se representan las tasas de crecimiento reales y estimadas para la variable endógena.
En estos casos la línea de predicción perfecta corresponde a la diagonal que atraviesa los cuadrantes primero y tercero, con zonas de sub o sobrevaloración.
Si los puntos se encontrasen en los cuadrantes segundos y cuarto, la predicción presentaría un problema de signo contrario.
Continuando con el ejemplo de clase
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
d) Diagrama de predicción realización.Continuando con el ejemplo de clase
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
e) U de Theil, coeficiente de desigualdad de Theil.
Es otra medida que permite analizar la bondad de la predicción. Está basada en la diferencia cuadrática que existe entre las tasas de crecimiento de la variable real y la estimada. Este coeficiente corresponde a la cuantificación del diagrama de predicción realización.
n
y
n
y
n
yy
Un
ii
n
ii
n
iii
1
2
1
2
1
2
ˆ
ˆ
El valor de coeficiente está comprendido entre 0 y 1.
El valor 0 supone una predicción perfecta ya que coinciden ambas tasas en todos los puntos.
El valor 1 en cambio supone máxima desigualdad, este hecho se puede deber a predicciones nulas para valores reales distintos de cero o viceversa.
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
e) U de Theil, coeficiente de desigualdad de Theil.
El valor del coeficiente se puede atribuir a tres factores:
1. Error Sistemático: atribuido a la diferencia sistemática entre el promedio de las tasas reales y estimadas de la variable dependiente. Toma valores positivos o negativos según la media de la tasa de crecimiento de la variable estimada sea mayor o menor que la media de la tasa de la variable real.
2. Error de Dispersión:atribuido a la diferencia entre las desviaciones típicas de las tasas de crecimiento reales y estimadas de la variable dependiente. Toma valores entre 0 y 1 ó -1 y 0 según la dispersión de la tasa de crecimiento de la variable estimada sea mayor o menor que la media de la tasa de la variable real.
3. Error de Correlación: Supone el que las dos series siguen trayectorias distintas, queda reflejado en la mayor o menor correlación existente entre las tasas de crecimiento reales y estimadas de la variable dependiente.
MEDIDAS Y CONTRASTES Medidas de Bondad a priori.
e) U de Theil, coeficiente de desigualdad de Theil.
-20
0
20
40
60
80
100
2001 2002 2003 2004 2005 2006 2007 2008
DEMANDAF ± 2 S.E.
Forecast: DEMANDAFActual: DEMANDAForecast sample: 2001 2008Included observations: 8
Root Mean Squared Error 3.610131Mean Absolute Error 2.803879Mean Abs. Percent Error 7.473916Theil Inequality Coefficient 0.036309 Bias Proportion 0.000000 Variance Proportion 0.005234 Covariance Proportion 0.994766
Continuando con el ejemplo de clase
El error en este caso es bastante bajo. No obstante la mayor proporción mismo se concentra en el componente correlación, señalando que no tienen una senda común.