Post on 05-Jan-2020
COLEGIO DE POSTGRADUADOS INSTITUCIÓN DE ENSEÑANZA E INVESTIGACIÓN EN CIENCIAS AGRÍCOLAS
CAMPUS MONTECILLO
SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA
ESTADÍSTICA
PRUEBAS DE BONDAD DE AJUSTE Y DE RAZÓN DE VEROSIMILITUDES GENERALIZADA PARA PROCESOS
POISSON NO HOMOGÉNEO
FRANCISCO JULIAN ARIZA HERNANDEZ T E S I S
PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER EL GRADO DE:
M A E S T R O EN C I E N C I A S
MONTECILLO, TEXCOCO, EDO. DE MÉXICO 2005
ii
La presente tesis titulada: PRUEBAS DE BONDAD DE AJUSTE Y DE RAZÓN DE
VEROSIMILITUDES GENERALIZADA PARA PROCESOS POISSON NO
HONOGENEO, realizada por el alumno: Francisco Julian Ariza Hernández, bajo la
dirección del Consejo Particular indicado, ha sido aprobada por el mismo y aceptada
como requisito parcial para obtener el grado de:
MAESTRO EN CIENCIAS
SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA ESTADÍSTICA
CONSEJO PARTICULAR
CONSEJERO
Dr. Humberto Vaquera Huerta
ASESOR
Dr. José A. Villaseñor Alva
ASESOR
Dr. Miguel Ángel Martínez Damián
iii
AGRADECIMIENTOSAGRADECIMIENTOSAGRADECIMIENTOSAGRADECIMIENTOS
A lConsejo Nacional de Ciencia y Tecnología (CONACYT) p o r s u g r a n a p o y oe c o n ó m i c o q u e m e b r i n d ó d u r a n t e t o d o s m i e s t u d i o s d e m a e s t r í a .A lColegio de Postgraduados, p o r h a b e r m e b r i n d a d o l a o p o r t u n i d a d d e s e g u i r m if o r m a c i ó n a c a d é m i c a e n s u s a u l a s .A l o s i n t e g r a n t e s d e m i C o n s e j o P a r t i c u l a r :A lDr. Humberto Vaquera Huerta m i m á s s i n c e r o a g r a d e c i m i e n t o , p o r s u s a t i n a d a si n d i c a c i o n e s y c o n s e j o s m i s m o s q u e m e f u e r o n d e g r a n u t i l i d a d e n l a r e a l i z a c i ó n d e lp r e s e n t e t r a b a j o d e t e s i s .A lDr. José A. Villaseñor Alva p o r s u v a l i o s a p a r t i c i p a c i ó n , s u s c o m e n t a r i o s a c e r t a d o s ,s u s c o n s e j o s y d i s p o n i b i l i d a d p a r a d e d i c a r p a r t e d e s u t i e m p o e n l a r e v i s i ó n d e e s t et r a b a j o d e t e s i s .A lDr. Miguel Ángel Martínez Damián, p o r s u s o p i n i o n e s t a n a t i n a d a s , s u o r i e n t a c i ó ny c o l a b o r a c i ó n p a r a l a r e a l i z a c i ó n d e l p r e s e n t e t r a b a j o .M i a g r a d e c i m i e n t o a l o s p r o f e s o r e s , m i s c o m p a ñ e r o s d e c l a s e , p e r s o n a l a d m i n i s t r a t i v o yt o d a s a q u e l l a s p e r s o n a s q u e d e a l g u n a m a n e r a f u e r o n c o p a r t i c i p e s d e e s t a t a r e a , a t o d o sg r a c i a s .
iv
DEDICATORIADEDICATORIADEDICATORIADEDICATORIA
A mis padres…
A mi esposa… y
A mis hermanos…
F. J. A. H.
v
RESUMEN.
En este trabajo, se presenta una prueba de bondad de ajuste basada en el estimador de momentos
del Coeficiente de Correlación (PCC), y una Prueba de Razón de Verosimilitudes Generalizada
(PRVG) para un Proceso Poisson No Homogéneo (PPNH). Estas pruebas se aplican a un
conjunto de datos, que representan los tiempos de ocurrencia de fallas en un sistema de control.
Aquí, utilizamos estas pruebas de manera complementaria, ya que primero se desarrolló la PCC
para verificar si los tiempos de falla del sistema siguen el Proceso Goel-Okumoto tomando en
cuenta la función de distribución Weibull (PPNH-W), y después se desarrolló la PRVG para
poder discernir si estos tiempos de falla siguen un modelo más simple como el Proceso Goel-
Okumoto utilizando la función de distribución Exponencial (PPNH-E) o bien un PPNH-W,
concluyendo con un nivel de significancia de 0.05, que los tiempos de falla siguen un PPNH-W.
Además se realiza un estudio de simulación Monte-Carlo para la potencia y tamaño de ambas
pruebas, obteniendo resultados satisfactorios para los casos estudiados.
Palabras Clave: Distribución Asintótica, Función de Intensidad, Prueba de Bondad de Ajuste,
Simulación Monte-Carlo.
ABSTRACT.
In this work, the Correlation Coefficient Goodness of Fit Test (CCGFT) and the Generalized
Likelihood-ratio Test (GLRT) are developed for Non-Homogeneous Poisson Processes (NHPP)
using a given intensity function. These tests are applied to a data set that consists of the failure
times in a control system. First a CCGFT was developed to verify if that failure times of the
system are a NHPP with a Weibull intensity function (NHPP-W). Then, a GLRT was developed
to know if those failure times follow a NHPP with a Exponential intensity function (NHPP-E) or
a NHPP-W. Therefore with a significance level of 0.05, it is concluded that the failure times
follow a NHPP-W. Also the size and power of both test are determined showing satisfactory
results for the studied cases.
Key words: Asymtotic Distribution, Intensity Function, Monte-Carlo Simulation, Goodness of
Fit Test.
vi
1. INTRODUCCIÓN ....................................................................................................................................... 1
1.1 ANTECEDENTES ........................................................................................................................................ 2
1.2 PLANTEAMIENTO DEL PROBLEMA ............................................................................................................. 4
2. OBJETIVOS ................................................................................................................................................ 5
3. MARCO TEÓRICO.................................................................................................................................... 6
3.1 ALGUNOS CONCEPTOS DE PROCESOS ESTOCÁSTICOS .............................................................................. 6
3.1.1. Proceso de Poisson ......................................................................................................................... 7
3.1.2 Proceso Poisson Homogéneo y No Homogéneo .............................................................................. 8
3.2 MÉTODO DE MÁXIMA VEROSIMILITUD .................................................................................................. 10
3.3 PRUEBAS DE HIPÓTESIS .......................................................................................................................... 12
3.3.1 Función de Potencia y Tamaño de la Prueba ................................................................................ 13
3.4 PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.................................................................... 15
3.4.1. Distribución Asintótica de la Prueba de Razón de Verosimilitudes.............................................. 16
3.5 PRUEBA DEL COEFICIENTE DE CORRELACIÓN ........................................................................................ 17
4. PRUEBA DEL COEFICIENTE DE CORRELACIÓN PARA UN PPNH........................................... 18
4.1 IMPLEMENTACIÓN DE LA PRUEBA ........................................................................................................... 19
4.2 ESTADÍSTICA DE PRUEBA ....................................................................................................................... 21
4.3 EJEMPLO DE APLICACIÓN ....................................................................................................................... 28
5. PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA PARA UN PPNH.................. 32
5.1 IMPLEMENTACIÓN DE LA PRUEBA ........................................................................................................... 33
5.2 ESTADÍSTICA DE PRUEBA........................................................................................................................ 35
5.3 CONTINUACIÓN DEL EJEMPLO DE APLICACIÓN ....................................................................................... 37
6. ESTUDIO DE SIMULACIÓN PARA EL TAMAÑO Y POTENCIA DE LAS PRUEBAS................ 40
6.1 PRUEBA DEL COEFICIENTE DE CORRELACIÓN......................................................................................... 40
6.1.1 Tamaño de la PCC ......................................................................................................................... 40
6.1.2 Potencia de la PCC........................................................................................................................ 43
ContenidoContenidoContenidoContenido
vii
6.2 PRUEBA DE RAZÓN DE VEROSIMILITUDES.............................................................................................. 47
6.2.1 Tamaño de la PRVG....................................................................................................................... 48
6.2.2 Potencia de la PRVG...................................................................................................................... 50
7. CONCLUSIONES ..................................................................................................................................... 54
8. BIBLIOGRAFÍA. ...................................................................................................................................... 57
ANEXO A........................................................................................................................................................ 61
ANEXO B ........................................................................................................................................................ 66
INTRODUCCIÓN
Ariza H. F. J. 1
1. INTRODUCCIÓN
Muchos de los fenómenos aleatorios, tales como el número de accidentes
automovilísticos en un cruce de carretera, el número de fallas de una máquina o sistema, el
recorrido de una partícula en movimiento browniano, el volumen de agua fluctuante en
sistema de suministro de agua, el crecimiento de una población (humana o bacteriológica),
etc., se presentan en la naturaleza y son estudiados en diferentes áreas como la Física,
Ingeniería, Biología, Medicina, Ciencias Sociales, y otras disciplinas científicas. Estos
fenómenos generalmente son distribuidos en forma irregular dentro de alguna región del
espacio o algún intervalo de tiempo, lo que implica que para su estudio se haga uso de la
teoría de procesos estocásticos.
Para el estudio de muchos de estos fenómenos aleatorios, dos procesos estocásticos
desempeñan un papel fundamental, el Proceso de Wiener y el Proceso de Poisson. El
desarrollo de este trabajo se enfoca básicamente en el estudio del Proceso de Poisson,
referente a fenómenos aleatorios como son los procesos de conteo.
El Proceso Poisson No Homogéneo (PPNH) es usado rutinaria y extensivamente
para modelar fallas en sistemas reparables y en pruebas para software. El trabajo que se
realiza en esta tesis consiste en desarrollar pruebas de validación estadística, para un
conjunto de datos, que representan los tiempos de ocurrencia de fallas en un sistema de
control, en los cuales se desea verificar si los tiempos de falla obedecen a un PPNH con
CapíCapíCapíCapítulo tulo tulo tulo IIII
INTRODUCCIÓN
Ariza H. F. J. 2
función de intensidad tE t e( ) ;βλ θβ −= β > 0, θ > 0, o bien si son un PPNH con función de
intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0.
1.1 Antecedentes
Algunos de los fenómenos aleatorios mencionados anteriormente, pueden ser
estudiados como un Proceso Poisson No Homogéneo, con una función de intensidad λ(t)
dada, por lo que es razonable probar el contraste de hipótesis siguiente:
0 1H t es constante vs H t es monótona creciente: ( ) : ( )λ λ (1.1)
En el contraste de hipótesis dada en (1.1), es importante asumir un PPNH en un
intervalo de tiempo (0,T] y que el número de eventos ocurridos hasta el tiempo T, sea una
variable aleatoria Poisson NT, con tiempos de ocurrencia 0<T1<T2<…<Tn<T. Cox y Lewis
(1966) mencionan que una de las primeras pruebas para (1.1), es atribuida a Laplace y
muestran que esta prueba es óptima para probar un PPNH con función de intensidad log-
lineal. Esta prueba esta basada en la estadística:
n
i
i 1 0
TL
T=
=∑ (1.2)
Bajo ciertas condiciones de regularidad, la estadística L definida en (1.2) y
aplicando el Teorema Central del Límite nos dice que para n grande, si 1
21
12
L
nZ
n
−= , entonces
Z ∼ N(0,1), Cox y Lewis (1966), Ascher y Feingold (1984). Entonces para un tamaño de
muestra n, y un α* dado, se tiene que α* = PL> 1
n nZ
2 12 *α−+ , donde Z1-α* es el 1-α* ésimo
cuantil de la distribución N(0,1). Por lo tanto, se rechaza H0 en (1.1) si: 1
n nL Z
2 12 *α−> + .
Cox (1955), discute el uso de la prueba de Laplace, para probar:
t0 1H t vs H t e: ( ) : ( ) βλ λ λ λ= = (1.3)
INTRODUCCIÓN
Ariza H. F. J. 3
Boswell (1966), desarrolla la Prueba de Razón de Verosimilitudes, para el juego de
hipótesis dado en (1.1), asumiendo un PPNH arbitrario y condicionando en N = n.
Saw (1975), presenta una nueva forma para probar el juego de hipótesis dada en
(1.1). En su presentación considera el hecho de que T1, T2, …, Tn, son las estadísticas de
orden de una muestra de tamaño n, de la densidad (t)f(t)=
(T)λ
Λ ; donde 0
T
(T ) ( t )dtλΛ = ∫
Vaquera (1997), aplica también la Prueba de Razón de Verosimilitudes, para probar
tendencia en datos de Ozono, asumiendo un PPNH con función de intensidad
1 tt t e 0( ) ; , , ( , )αα βλ µα α µ β−= > ∈ −∞ ∞ , además, compara los estimadores de máxima
verosimilitud con el estimador no paramétrico Kernel suavizado de λ(t).
Crow (1974) desarrolla la metodología para un nuevo PPNH:
1
0 1
1 tH t vs H t: ( ) : ( )
ββ
λ λθ θ θ
− = =
(1.4)
Crow (1984) considera una prueba de bondad de ajuste para datos que provienen de
un PPNH usando la estadística de Cramer-von Mises y obtiene una tabla de valores críticos
para esta estadística. Park y Kim (1992) usan la estadística de Kolmogorov-Smirnov, la de
Cramer-von Mises y la de Anderson-Darling para una prueba de bondad de ajuste para el
proceso Ley Potencia, ellos presentan tablas de valores críticos para esas estadísticas. Lucas
(2000) realiza una prueba de bondad de ajuste para el mismo proceso, utilizando como
estadística de prueba el estimador de momentos del coeficiente de correlación.
Muchos modelos de confiabilidad han sido propuestos para modelar los tiempos de
fallas en pruebas para software, tales como el modelo de Duane (1964), Jelinski y Moranda
(1972), Goel y Okumoto (1984), Cox y Lewis (1966), entre otros.
INTRODUCCIÓN
Ariza H. F. J. 4
1.2 Planteamiento del Problema
Cuando se tiene un conjunto de datos, muchas veces se inicia el proceso de
estimación puntual o por intervalo de parámetros, suponiendo que esos datos provienen de
un modelo distribucional conocido. Esto, debido a varias razones, una es que puede suceder
que no existan pruebas de validación estadística para el modelo propuesto, u otra porque la
implementación de tal prueba de validación sea muy difícil de aplicar y el investigador la
pase por alto o simplemente con base en la experiencia de trabajar con el modelo, no se
realice tal verificación.
La presente investigación surge con la motivación de analizar un conjunto de datos,
los cuales representan los tiempos de ocurrencia de fallas de un Sistema de Datos para
Tácticas Navales. Por lo tanto, este estudio consiste principalmente de dos fases
importantes:
Fase 1. Verificar mediante una prueba de bondad de ajuste basada en el Coeficiente de
Correlación que los tiempos de falla son un PPNH con función de intensidad
1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0. Este es el Proceso Goel-Okumoto con función de
distribución Weibull (PPNH-W).
Fase 2. De cumplirse la Fase 1, se desarrolla la Prueba de Razón de Verosimilitudes
Generalizada para verificar si los tiempos de falla pertenecen a un modelo más restringido
como el Proceso Goel-Okumoto con función de distribución Exponencial, el cual es un
PPNH con función de intensidad tE t e( ) ;βλ θβ −= β > 0, θ > 0 (PPNH-E), contra el
modelo alternativo de un PPNH con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0,θ >
0, α > 0 (PPNH-W).
OBJETIVOS
Ariza H. F. J. 5
2. OBJETIVOS
Los objetivos de este estudio son:
1) Desarrollar una prueba de bondad de ajuste basada en el estimador de momentos del
coeficiente de correlación, para probar:
1 10 1: ( ) e : ( ) et tH t t vs H t t
α αα β α βλ θ βα λ θ βα− − − −= ≠
Así como el obtener los valores críticos de la prueba.
2) Desarrollar la Prueba de Razón de Verosimilitudes Generalizada, para verificar el
siguiente contraste de hipótesis:
10 1: ( ) e : ( ) et tH t vs H t t
αβ α βλ θ β λ θ βα− − −= =
3) Realizar un estudio de simulación Monte-Carlo para estimar el tamaño y potencia
de ambas pruebas.
CapíCapíCapíCapítulo tulo tulo tulo IIIIIIII
MARCO TEÓRICO.
Ariza H. F. J. 6
3. MARCO TEÓRICO
Esta sección contiene una revisión sobre nociones elementales y básicas de la teoría
de Procesos Estocásticos, en particular del Proceso de Poisson; así como también, algunos
procedimientos de inferencia estadística como la estimación de parámetros por máxima
verosimilitud y de pruebas de hipótesis.
3.1 Algunos Conceptos de Procesos Estocásticos
La teoría de los Procesos Estocásticos se define generalmente como la parte
“dinámica” de la teoría de Probabilidades, donde se estudia un conjunto de v.a.’s (llamado
proceso estocástico) desde el punto de vista de su interdependencia y su comportamiento
límite (Parzen, 1972).
Es decir, siempre que examinemos a un proceso o fenómeno aleatorio que se
desarrolle a través del tiempo y que esté controlado por leyes probabilísticas más que las
determinísticas, es a lo que llamamos un Proceso Estocástico. Una definición formal de
proceso estocástico es la siguiente:
Un proceso estocástico es un conjunto de variables aleatorias X(t) : t e T; donde t
es un parámetro que toma valores en el conjunto T, al cual se le llama conjunto índice del
proceso (Parzen, 1972).
CapíCapíCapíCapítulo tulo tulo tulo IIIIIIIIIIII
MARCO TEÓRICO.
Ariza H. F. J. 7
T generalmente representa al tiempo (pero también puede ser espacio) y X(t) es una
función de dos variables, es decir X(t) ≡ X(w,t), donde w e Ω (espacio muestral de X) y t e
T. Sobre la naturaleza del contradominio de X (denotado por Rx), el cual es llamado
espacio-estado y la naturaleza de T, no tenemos restricción, de tal manera que pueden ser
contables o continuos. Con base en lo anterior, podemos distinguir a los procesos
estocásticos como sigue:
•• Si Rx = 0,1,2,... , un conjunto numerable, el proceso estocástico es llamado,
proceso estocástico con espacio de estados discretos. Sí Rx = o algún intervalo de
(no numerable, continuo) se dice que el proceso estocástico toma valores reales.
•• Sí T = 0,1,2,... se dice que el proceso estocástico es un proceso de tiempo
discreto.. Sí T = (0, √∞) se dice que el proceso estocástico es un proceso de tiempo
continuo.
Una realización o función muestral de un proceso estocástico X(t) : t e T, es una
asignación de un posible valor de X(t), para cada t e T. Los valores de X(t) pueden ser 1-
dimensional, 2-dimensional o k-dimensional, (Karlin and Taylor, 1975).
Los procesos contadores o de conteo, representan uno de los tipos clásicos de los
procesos estocásticos, junto con los procesos estacionarios e independientes, procesos de
Markov y procesos de renovación, (Karlin and Taylor, 1975).
3.1.1. Proceso de Poisson
El Proceso Poisson juega un papel muy importante dentro de los procesos de
contaje, ya que se usa como un modelo para el conteo de eventos aleatorios.
Definición 1
Proceso Poisson. Sea un proceso contador N(t): t > 0 , se dice que es de tipo
Poisson con intensidad l, l>0, sí:
MARCO TEÓRICO.
Ariza H. F. J. 8
i. N(0) = 0
ii. Para cualquiera tiempos t0 = 0 < t1 < t2 < . . . < tn , los incrementos del
proceso N(t2)- N(t1), N(t3)– N (t2), . . . , N(tn) – N (tn-1), son v.a’s
independientes.
iii. Para toda s, t ≥ 0 , la v.a. N(t+s)-N(s) tiene distribución Poisson.
( )
( ) ( ) ; 0,1, 2,...!
nt t
P N s t N s e nn
λ λ−+ − = = (3.1)
Por la definición 1, se tiene que el proceso tiene incrementos estacionarios e
independientes y además se puede ver de la ecuación (3.1) que: EN(t) = lt, y V(N(t)) =lt
(ver demostración en Karlin and Taylor, 1975).
Otra definición alternativa está dada por:
Definición 2
Proceso Poisson: Es un proceso contador N(t): t > 0 , con intensidad l, l>0, sí:
i. N(0) = 0
ii. El proceso tiene incrementos independientes y estacionarios.
iii. Pr N(h) = 1 = lh + 0(h)
iv. Pr N(h) ≥ 2 = 0(h).
donde 0(h) es cualquier cantidad que después de dividirla por h tiende a cero, como
h → 0
En Ross (1996) se demuestra que la Definición 1 y la Definición 2 son equivalentes.
3.1.2 Proceso Poisson Homogéneo y No Homogéneo
Para un Proceso de Poisson N(t): t > 0 con intensidad l, l>0, se define la función
de intensidad o razón de ocurrencia de eventos como:
( ) ( ) ( )d d
t E N t m tdt dt
λ = = (3.2)
MARCO TEÓRICO.
Ariza H. F. J. 9
A m(t) se le llama la función media del proceso, es decir:
0
( ) ( )t
m t s dsλ= ∫ (3.3)
Sí m(t) = lt, implica que l(t) = d
dt(lt) = l, entonces se dice que el proceso Poisson
es Estacionario u homogéneo.
En muchos casos es factible considerar a l como a una función de t, i.e. l = l(t). Sí
el Proceso de Poisson N(t): t > 0, es tal que las condiciones 2, 3 y 4 de la definición 2 son
reemplazadas por (Basawa and Prakasa, 1980):
i. N(t) t >0, tiene incrementos independientes.
ii. PrN(t+h)-N(t) = 1 = l(t)h + 0(h)
iii. PrN(t+h)-N(t) ≥ 2 = 0(h).
donde 0(h) es cualquier cantidad que después de dividirla por h tiende a cero, como
h→0
Entonces se dice que el proceso N(t): t > 0, es un Proceso Poisson No
Homogéneo o no Estacionario.
Se presenta a continuación las principales propiedades de un Proceso Poisson No
Homogéneo, (Basawa and Prakasa, 1980).
a) Sea N1, N2, . . . variables aleatorias que denotan el número de eventos que ocurren
en intervalos disjuntos, digamos [0, u1), [u1, u2), . . . Entonces N1, N2, . . . son
variables aleatorias independientes Poisson, es decir:
1 1
( ) ( )
Pr ; 0,1, 2,...!
r r
r r
nu u
u u
r
exp s ds s ds
N n nn
λ λ− −
− = = =∫ ∫
(3.4)
MARCO TEÓRICO.
Ariza H. F. J. 10
b) Sean 0 < t1 < t2 < . . . los tiempos en los cuales los eventos ocurren. Entonces los
intervalos entre ocurrencia Tk = tk - tk-1 (k = 1, 2, . . . ) son variables aleatorias
independientes con densidad:
1
( ) ( ) exp ( )k
k
k
t
T k k
t
f t t s dsλ λ−
= −
∫ (3.5)
c) Condicionando a N(t) = n, los tiempos en los cuales los eventos ocurren; es decir, 0
< t1 < t2 < . . . < tn (≤ To) son distribuidos como las n estadísticas de orden que
corresponden a una muestra aleatoria de n observaciones de la densidad:
0 0
0
( )( ) ; 0
( )T
tf t t T
s ds
λ
λ
= ≤ ≤
∫ (3.6)
Esta función se reduce a una distribución uniforme sobre el intervalo (0,T0) cuando
λ(t) = λ.
3.2 Método de Máxima Verosimilitud
El método de máxima verosimilitud es una de las técnicas más populares para
obtener estimadores; y para mostrar correctamente a este método primero se define a la
función de verosimilitud como:
Definición 3
Función de Verosimilitud, (Mood, 1974): La función de verosimilitud de las n
variables aleatorias, X1,X2,...,Xn, independientes e idénticamente distribuidas (iid), es
definida como la densidad conjunta de las n variables aleatorias, la cual es
considerada como una función de los parámetros; es decir:
MARCO TEÓRICO.
Ariza H. F. J. 11
1 ,... 1
1
( ; ) ( ,..., ; )
( ; )
n
i
X X n
n
X i
i
L f x x
f x
θ θ
θ=
=
=∏
x
(3.7)
Note que en la ecuación (3.7) el parámetro θ puede ser un vector.
La función de verosimilitud L(θ; x1,x2,..,xn) da la verosimilitud cuando las variables
aleatorias toman un valor en particular x1, x2, . . . ,xn. La verosimilitud es el valor de una
función de densidad y cuando se tienen variables aleatorias discretas es una probabilidad.
Para un conjunto de datos observados representados por x1,x2,...,xn, que provienen de
una función de distribución f(x;θ), el problema de los estimadores de máxima verosimilitud
consiste en conocer cual es el valor de θ que nos da la verosimilitud o probabilidad mas
grande para ese conjunto de datos observado; en otras palabras, queremos encontrar el valor
de θ e Θ, denotado por θ , el cual maximiza la función de verosimilitud L(θ;x1,x2,... xn);
generalmente θ es una función de x1, x2, . . . ,xn, es decir :
1ˆ ( ,..., )ng x xθ = (3.8)
Cuando este es el caso, la variable aleatoria 1ˆ ( ,..., )ng X XΘ = es llamada estimador
de máxima verosimilitud de θ.
Definición 4.
Estimador de Máxima Verosimilitud, (Mood, 1974): Sea L(θ) = L(θ;x1,x2,... xn), la
función de verosimilitud para las variables aleatorias X1, X2, . . . , Xn. Si θ [donde
1ˆ ( ,..., )ng x xθ = es una función de las observaciones x1, x2 ,. . ., xn] es el valor de θ e
Θ, el cual maximiza a L(θ), entonces 1ˆ ( ,..., )ng X XΘ = es el estimador de máxima
verosimilitud de θ. Y 1ˆ ( ,..., )ng x xθ = es el estimador de máxima verosimilitud de
θ, para la realización x1, x2 ,. . . xn.
MARCO TEÓRICO.
Ariza H. F. J. 12
Muchas de la funciones de verosimilitud cumplen con ciertas condiciones de
regularidad. Por ejemplo, si L(θ) es diferenciable con respecto a sus parámetros, es posible
obtener los estimadores de máxima verosimilitud para θ1,...,θk resolviendo el sistema de
ecuaciones:
( )
0; 1,...,i
dLi k
d
θθ
= = (3.9)
Cuando esto no es posible, se pueden utilizar otras alternativas como los métodos
numéricos o extremos de funciones monótonas.
3.3 Pruebas de Hipótesis
Una hipótesis estadística es una hipótesis acerca de la distribución de una población.
Una definición formal es:
Definición 5.
Hipótesis Estadística (Mood, 1975): una hipótesis estadística es una aseveración o
conjetura acerca de la distribución de una o más variables aleatorias. Si en la
hipótesis estadística la distribución se encuentra completamente especificada,
entonces es llamada hipótesis simple; de otra manera, es llamada hipótesis
compuesta.
Sea X1, X2, . . . , Xn una muestra aleatoria con densidad f(x;θ), donde θ es el
parámetro de la distribución, θ e Ω, Ω conocido. Entonces, típicamente se tiene interés en
probar el juego de hipótesis:
0 1H : :vs Hθ ω θ ω∈ ∈Ω− (3.10)
donde ω Õ Ω, Ω Õ k y ω es conocido. Esto es, con base en X1, X2, . . . , Xn se
desea decidir si rechazamos H0 a favor de H1 o no rechazamos H0.
MARCO TEÓRICO.
Ariza H. F. J. 13
Para esto se utiliza una prueba que está basada en el conjunto X = x | x una
realización de X. Entonces la prueba es una partición de X en XA y XR, es decir XA » XR =
X y XA … XR = «. Entonces si la realización x de X cae en XA, no se rechaza Ho y si cae en
XR, se rechaza Ho. A XA se le llama región de no rechazo y a XR se le llama región de
rechazo o región crítica.
Generalmente, XR nos define una prueba: XR = x e X : s(x) > k; donde a s(x) se le
llama estadística de prueba.
Para cada prueba XR, se le asocia una función indicadora:
: 0,1RX Xφ →
tal que,
( ) 1,
0,RX R
A
x si X
si X
φ = ∈
= ∈
x
x (3.11)
Es decir, la regla de decisión sería:
Rechazar H0 si φ(x) = 1
No Rechazar H0 si φ(x) = 0
3.3.1 Función de Potencia y Tamaño de la Prueba
Decidiendo si se acepta o se rechaza una hipótesis nula H0, un experimentador
puede cometer un error. Usualmente, las pruebas de hipótesis son evaluadas y comparadas
a través de sus probabilidades de cometer errores. Cuando usamos la prueba φ. Podemos
cometer dos tipos de errores:
Error tipo I. Rechazar H0 cuando realmente es verdadera.
Error tipo II. No rechazar H0 cuando en realidad es falsa.
MARCO TEÓRICO.
Ariza H. F. J. 14
Por lo tanto, es razonable escoger una prueba φ* que minimice la probabilidad de
ocurrencia de ambos tipos de errores. Pero desgraciadamente, tal prueba φ* no existe, ya
que cuando se minimiza la probabilidad de unos de los errores, aumenta la probabilidad de
otro error. Por esta razón, se fija la probabilidad de cometer el error tipo I y se trata de
minimizar la probabilidad del error tipo II.
Consideremos la siguiente definición:
Definición 6.
Función de potencia, (Casella, 2002): La función de potencia de una prueba de
hipótesis con región de rechazo XR es una función de θ definido por:
R( ) =P( X )β θ ∈X (3.12)
La función de potencia ideal es 0 para toda θ e ω y 1 para toda θ e W - ω. Excepto en
situaciones triviales, esta forma ideal no puede ser obtenida; sin embargo, una buena prueba
tiene una función de potencia cercana a 1 cuando θ e W - ω y cercana a 0 cuando θ e ω.
Las siguientes dos definiciones se usan cuando discutimos pruebas que controlan la
probabilidad de Error tipo I.
Definición 7
Tamaño de una prueba. (Casella, 2002): Para 0 ≤ α ≤ 1, una prueba con función de
potencia β(θ) es una prueba de tamaño α si:
sup ( )θ ω β θ α∈ = (3.13)
Definición 8
Nivel de una prueba, (Casella, 2002): Para 0 ≤ α ≤ 1, una prueba con función de
potencia β(θ) es una prueba de nivel α si:
sup ( )θ ω β θ α∈ ≤ (3.14)
MARCO TEÓRICO.
Ariza H. F. J. 15
Notamos que si θ e W - ω, entonces:
β(θ) = P φ(x) = 1 | θ = 1 - Pφ(x) = 0 | θ
=1 - PError tipo II usando | φ θ (3.15)
Es decir, PError tipo II usando φ | θ es pequeña cuando βφ (θ) es próxima a uno
con θ e W - ω. Por lo tanto, es deseable encontrar una prueba φ* de tamaño α, tal que su
función de potencia βφ*(θ) sea uniformemente máximo respecto a todas las pruebas de
tamaño α. Por lo tanto, φ* es tal que:
1. βφ*(θ) ≤ α, para toda θ e ω
2. βφ*(θ) ≥ βφ (θ), para toda θ e W - ω y cualquier otra prueba φ que cumpla 1.
A la prueba φ* se le llama la prueba uniformemente más potente de tamaño α,
(UMP(α)) para probar la hipótesis (3.10).
3.4 Prueba de Razón de Verosimilitudes Generalizada Existen diferentes métodos para desarrollar pruebas de hipótesis, estos
procedimientos son utilizados en diferentes situaciones, dependiendo del problema. Ahora
se describe un método general y que casi siempre es aplicable y en muchos de los casos es
también óptimo.
El método de razón de verosimilitudes generalizada para probar hipótesis está
relacionado con la estimación de parámetros por máxima verosimilitud.
Si asumimos que X1, X2, . . . , Xn es una muestra aleatoria de una población con
función de densidad f(x|θ), (θ pede ser un vector) la función de verosimilitud es definida
como:
11
( ; ,..., ) ( ; ) ( ; ) ( ; )i
n
n X i
i
L x x L f f xθ θ θ θ=
= = =∏x x (3.16)
Sea Ω el espacio de parámetros, entonces la prueba de razón de verosimilitudes se
define como:
MARCO TEÓRICO.
Ariza H. F. J. 16
Definición 9
Prueba de razón de verosimilitudes (Casella, 2002): la prueba de razón de
verosimilitudes estadística para probar la hipótesis: H0 : θ e ω versus H1 = θ e Ω- ω
es:
θ ω
θ
θλ
θ∈
∈Ω
( ) =sup L( ;x)
xsup L( ;x)
(3.17)
La prueba de razón de verosimilitudes tiene una región de rechazo de la forma x:
λ(x) ≤ c, donde c es cualquier numero entre 0 y 1. Es decir, rechazamos H0 para valores
pequeños de λ(x). Notamos que λ(x) es una función de x1,…,xn, es decir λ(x1,…,xn), por lo
que λ(x) es una estadística y por lo tanto no depende de ningún parámetro. Generalmente la
prueba de razón de verosimilitudes es una buena prueba.
3.4.1. Distribución Asintótica de la Prueba de Razón de Verosimilitudes
Cuando se aplica la Prueba de Razón de Verosimilitudes a un problema complicado
es posible que la distribución de la estadística λ(x) sea intratable analíticamente, entonces
una aproximación a la distribución puede hacerse usando la distribución asintótica de la
prueba de razón de verosimilitudes. El siguiente teorema refiere a dicha distribución
asintótica.
Teorema 1. (Mood, 1975): Sea X1, …,Xn una muestra con función de densidad
fX(x;θ), donde θ = (θ1,…, θk).
Suponga que el espacio de parámetros denotado por Θ k-dimensional. Se desea
probar la hipótesis:
H0: θ1 = θ’1,…,θr = θ’r, θr+1,…,θk,
donde θ’1,…,θ’r son constantes conocidas y θr+1,…,θk son no especificadas.
Entonces -2 log λ(X) es una variable aleatoria que se distribuye aproximadamente
como una distribución ji-cuadrada con r grados de libertad, 2rχ ; cuando la hipótesis
nula es verdadera y el tamaño de muestra es grande.
MARCO TEÓRICO.
Ariza H. F. J. 17
Como se ha mencionado en la sección 3.4.1, el principio de la prueba de razón de
verosimilitudes dice que H0 es rechazada para valores pequeños de λ(x), pero entonces -2
log λ(x) crece cuando λ(x) decrece, entonces una prueba que es equivalente a la prueba de
razón de verosimilitudes es rechazar H0 para valores grandes de -2 log λ(x). Entonces, el
teorema 1 nos da una distribución aproximada para los valores de -2 log λ(x), cuando H0 es
verdadera. Entonces la prueba para un tamaño α dado, es:
Rechazar Ho si y solo si -2 log λ(x) > 21 αχ − (r)
donde 21 αχ − (r) es el (1-α)-cuantil de la distribución ji-cuadrada con r grados de libertad.
Notamos que los grados de libertad r es el numero de componentes del espacio paramétrico
que son especificados en la hipótesis nula.
3.5 Prueba del Coeficiente de Correlación
La prueba del Coeficiente de Correlación se basa en medir el grado de asociación
lineal entre una variable dependiente –digamos Y- y otra variable independiente X; esto
mediante el estimador de momentos del coeficiente de correlación, definido por:
1
2 2
1 1
( )( )( , )
( ) ( )
n
i i
i
n n
i i
i i
X X Y Y
r Corr X Y
X X Y Y
=
= =
− −= =
− −
∑
∑ ∑ (3.18)
Cabe mencionar que se espera una correlación cercana a uno entre las variables X y
Y bajo H0, es decir casi perfecta. Por lo tanto, la prueba rechaza H0 cuando r en (3.18) es
menor a un valor c, que cumpla que 0 ≤ c ≤ 1. es decir para una α’ dada Prechazar H0 |
H0= Pr ≤ cα’,n| H0 = F(cα’,n), de donde cα’,n = F-1(α’) y F es la función de distribución de
r bajo H0.
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 18
4. PRUEBA DEL COEFICIENTE DE CORRELACIÓN PARA
UN PPNH
En este capítulo se presenta la prueba del Coeficiente de Correlación, la cual nos
será útil para dar validez a conjuntos de datos que se supone siguen un proceso poisson no
homogéneo.
Con frecuencia, uno comienza un análisis probabilístico de un fenómeno dado,
estableciendo como hipótesis que algunos de sus elementos aleatorios tienen una
distribución de probabilidad en particular. Entonces cuando deseamos verificar tales
hipótesis en forma estadística, es decir H0: F(x) = F0(x), donde x = x1, x2 ,. . . xn, son
observaciones independientes de variables aleatorias con función de distribución F(x) y
F0(x) es alguna función de distribución en particular, se dice que a estas pruebas
estadísticas se les llama Pruebas de Bondad de Ajuste, (Kendall y Stuart, 1973)
Las pruebas de bondad de ajuste son una parte importante en cualquier tipo de
análisis de datos y son útiles para saber si una distribución de probabilidad supuesta es
congruente con un conjunto de datos dado. Una gran variedad de pruebas de bondad de
ajuste se pueden encontrar en la literatura, como son la prueba de bondad de ajuste ji-
cuadrada, prueba de Pearson, prueba de Kolmogorov-Smirnov, prueba del Coeficiente de
Correlación, prueba de Razón de Verosimilitudes Generalizada, etc.
CapíCapíCapíCapítulo tulo tulo tulo IVIVIVIV
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 19
A continuación se presenta el desarrollo metodológico de la prueba del coeficiente
de correlación para un proceso poisson no homogéneo con una función de intensidad λ(t)
dada de antemano.
Como se ha mencionado anteriormente una prueba relativamente sencilla de
implementar es la prueba del “Coeficiente de Correlación”; en donde la distribución de la
estadística de prueba es obtenida usando simulación Monte- Carlo.
La prueba del coeficiente de correlación fue introducida por Filliben (1975) para
probar bondad de ajuste de la distribución Normal. Las tablas fueron actualizadas por
Looney y Gulledge (1985). Esta prueba fue hecha ordenando los datos, asociado con cada
datum del valor esperado de las estadísticas de orden con igual rango, luego calculando el
coeficiente de correlación entre los datos y las desviaciones normales estándar, finalmente
usando las tablas para encontrar la probabilidad de ajuste asociado con las correlaciones
observadas. Kinnison (1985) presenta una tabla para probar bondad de ajuste de la
distribución de valores extremos Tipo I (Gumbel) usando el método del Coeficiente de
Correlación. López (2000) también utiliza el método del Coeficiente de Correlación para
probar un Proceso Poisson No Homogéneo.
4.1 Implementación de la Prueba
Implementar la prueba del coeficiente de correlación consiste básicamente en
aplicar la metodología que desarrolla López (2000), la cual considera una prueba de bondad
de ajuste para la función de valor medio de un Proceso Poisson No Homogéneo (PPNH)
usando el estimador de momento del coeficiente de correlación como estadística de prueba.
Si se estudia a un fenómeno aleatorio como un PPNH durante un periodo de tiempo
(0, T0), con tiempos de ocurrencia de eventos t1, t2, …, tn, y con función de valor medio
m(t), la metodología se desarrolla condicionando a N = n y linealizando la función de valor
medio m(t), de manera siguiente se usa el coeficiente de correlación entre X y Y que
resultan de linealizar las función media de la función de intensidad.
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 20
Dicho lo anterior el problema consiste en contrastar:
0 1t t vs t t: m( ) m* ( ) : m( ) m* ( )Η = Η ≠ (4.1)
El resultado de esta prueba indica si la función de la valor medio m*(t) es adecuada
para dicho PPNH o bien si ésta es diferente. Se puede ver también que la hipótesis hecha en
(4.1) puede ser expresada en términos de la función de intensidad λ(t) del PPNH.
En este trabajo se estudian dos modelos presentados por Kuo y Yang (1996), para la
función de intensidad. Para este tipo de modelos es necesario asumir que N tiene una
distribución Poisson con media θ. De modo, que se parte del supuesto que N(t); t > 0 es
un PPNH con m(t) = θF(t), donde F es la función de distribución acumulada de f. En
particular cuando F(t) = (1 )teαβθ −− , entonces N(t) es un PPNH con ( ) (1 )tm t e
αβθ −= − .
Dicho lo anterior, el modelo que aquí se trabaja es el siguiente:
0*( ) (1 ) [0, ], 0, 0, 0tm t e t Tαβθ α β θ−= − ∈ > > > (4.2)
Es decir, sustituyendo (4.2) en (4.1), particularmente se desea realizar el siguiente
contraste de hipótesis:
t t0 1m t 1 e vs t 1 e: * ( ) ( ) : m*( ) ( )
α αβ βθ θ− −Η = − Η ≠ − (4.3)
El modelo que sigue una función de intensidad con función de valor medio
presentada en (4.2) es una modificación del proceso de Goel-Okumoto (Goel-Okumoto,
1979), el cual utiliza un función de distribución Exponencial en la función de intensidad.
Sin embargo el proceso de Goel-Okumoto puede ser también considerado con una
función de distribución Weibull, como es el caso que se presenta en (4.2), al que
llamaremos PPNH-W. Estos modelos han sido utilizados en pruebas de software para
modelar tiempos de falla. Kuo y Yang (1996) obtienen los estimadores de máxima
verosimilitud y bayesianos para estos modelos.
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 21
Como m(t) es diferenciable, entonces la función de intensidad o razón de ocurrencia
de fallas definida en (3.2), para (4.2) es:
1( ) ; 0, 0, 0t
W t t eαα βλ θβ α θ β α− −= > > > (4.4)
Ahora el modelo presentado en (4.2) puede ser escrito en forma lineal como se
muestra a continuación:
( )
log log(1 ) log log ;m t
tβ αθ
− − = + (4.5)
Escribiendo la forma general:
Y b a X= + (4.6)
Donde Y =( )
log log(1 ) ;m t
θ − −
X = log t, b= log β, a = α para el PPNH-W en
(4.2) y θ es un parámetro desconocido.
4.2 Estadística de Prueba
Como se puede ver, en nuestro estudio de un PPNH se cuenta con los tiempos de
ocurrencia de eventos t1 , ..., tn con función de intensidad λ(t), t e (0, T0], y condicionando
a N(t) = n, los tiempos en los cuales los eventos ocurren; es decir, 0 < t1 < t2 < . . . < tn
(≤T0) son distribuidos como las n estadísticas de orden que corresponden a una muestra
aleatoria de n observaciones de la densidad dada en (3.6), es decir:
0
0
( )( ) ; 0
( )T
tf t t T
s ds
λ
λ
= ≤ ≤
∫
Por lo tanto:
0
0
00
( ) ( )( ) ;
( )( )
t
T
s ds m tF t
m Ts ds
λ
λ= =∫∫
(4.7)
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 22
Entonces N(t) = n es una realización de la variable aleatoria ℘(m(T0)). Dado que las
ti son los tiempos de ocurrencia de eventos y haciendo 0 0T m(T )λ = , entonces de (4.7),
tenemos:
0T( ) = ( )i im t F tλ (4.8)
Se puede ver que (4.8) tiene una distribución como la i-ésima estadística de orden,
de una muestra de tamaño n de la distribución U(0,λT); ya que F(·) converge en
probabilidad a una distribución uniforme estándar. Por lo tanto la i-ésima estadística de
orden de una muestra aleatoria de tamaño n de una distribución U(0,1) tiene una
distribución eta(i,n-i+1); es decir, F(ti) ~ eta(i, n-i +1), (Arnold, 1992).
Ya que m(ti) es una cantidad no observable durante el proceso, entonces un buen
estimador de este valor desconocido, es su valor medio representado por:
0
( )1i T
iE m t
nλ=
+ (4.9)
Sustituyendo a m(ti) por Em(ti)en la ecuación (4.5), resultan ser:
0
1log log(1 ) log log ; 1,2,..,T
i
i
n t i n
λ
β αθ
+− − = + =
0log log(1 ) log log ; 1,2,...,1
T
i
it i n
n
λβ α
θ − − = + = +
(4.10)
En una situación real en donde solo se observa el número total de eventos N = n en
un periodo de tiempo [0,T0] y los tiempos de ocurrencia de eventos ti’s, las consideraciones
para obtener (4.10) son fundamentales. Bajo esta situación, el parámetro 0 0T m(T )λ =
representa el numero de eventos promedio ocurridos hasta el tiempo T0, y puede ser
estimado por N = n (Boswell, 1966); de la misma manera el parámetro θ, para este tipo de
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 23
modelos, representa el valor medio de la variable aleatoria N, la cual tiene distribución
℘(θ), Kou y Yang (1996), por lo tanto puede ser estimado por N = n, de la misma manera
que 0T
λ . Entonces la ecuación (4.10), resulta finalmente de la forma siguiente:
log log(1 ) log log ; 1,2,...,1 i
it i n
nβ α − − = + = +
(4.11)
Donde:
log log(1 ) log ; 1, 2,...,1 i
iY y X t i n
n
= − − = = + (4.12)
Por otro lado, la veracidad de la H0 estará sustentada por el grado de asociación
lineal entre las variables X y Y obtenidas en (4.12). Esta dependencia lineal entre la
variables X y Y es medida mediante el estimador de momentos del coeficiente de
correlación r, definido en (3.18).
Dado que el estadístico r es invariante respecto a sus parámetros de localidad y
escala, entonces la función de distribución F(r) no depende de los parámetros a y b de la
ecuación (4.6), pero si depende del tamaño de muestra n, por lo tanto para calcular las
constantes críticas cα*,n utilizamos el procedimiento siguiente: para una α* dada, la
Prechazar H0 | H0= Pr ≤ cα*,n| H0 = Fr(cα*,n), de donde cα*,n = Fr-1(α*) y Fr es la función
de distribución de r. Por lo tanto, la regla de decisión es:
*,nRechazar Ho si y solo si r cα≤ (4.13)
En este trabajo la obtención de la distribución del estadístico r (estadística de
prueba) se obtiene usando simulación Monte-Carlo, con la ayuda del paquete R versión
2.1.1 (véase anexo A). Como se ha mencionado la distribución de r depende fuertemente
del valor de 0T
λ ; así el comportamiento al tiempo T0 depende de la realización de N = n;
por lo tanto es suficiente estudiar la distribución de r para un valor fijo de 0T
λ ; haciendo
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 24
que N tome valores de acuerdo a la distribución ℘(θ), repitiendo este proceso muchas
veces bajo m(t) podemos obtener la distribución de r dado n.
El proceso de simulación Monte-Carlo para obtener la distribución del estadístico r
bajo m(t), dado un valor fijo de θ, α y β, puede resumirse en los siguientes pasos:
1. Condicionando N = n y bajo m(t), simular los n tiempos de ocurrencia de eventos t1,
… , tn.
2. Calcular el valor de X y Y, según (4.12).
3. Calcular la estadística r, definida en (3.18).
4. Repetir los pasos del 1 al 3, hasta obtener una muestra de tamaño m lo
suficientemente grande de r.
5. Obtener los cuantiles para cada tamaño de muestra n y α* dados.
Con base al procedimiento anterior se generó la Tabla 1 que muestra los valores
críticos cα*,n, para diferentes valores de λT (tamaño de muestra) y α* (niveles de
significancia), con m = 50 000. -en el paso 4- y con la ayuda del software R versión 2.1.1
(véase anexo A).
En el caso en el que se deseé obtener un valor crítico cα*,n con un tamaño de muestra
diferente a los presentados en la Tabla 1; éste se puede aproximar con la ayuda de las
expresiones logarítmicas obtenidas mediante mínimos cuadrados ordinarios utilizando la
ecuación general:
y c ln( x ) d= + (4.14)
donde c y d son constantes y ln es el logaritmo natural (neperiano). Las expresiones se
presentan en el cuadro siguiente, con un R2 > 0.99.
αααα* 0 < n ≤≤≤≤ 100 n ≥≥≥≥ 100
0.01 C0.01,n = 0.0466 ln (n) + 0.7304 C0.01,n = 0.0212 ln (n) + 0.8512
0.025 C0.025,n = 0.0384 ln (n) + 0.7834 C0.025,n = 0.0158 ln (n) + 0.8894
0.05 C0.05,n = 0.0311 ln (n) + 0.8270 C0.05,n = 0.0119 ln (n) + 0.9166
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 25
0.84
0.86
0.88
0.9
0.92
0.94
0.96
0.98
1
0 200 400 600 800 1000
Tamño de muestra (n)
Valores críticos α* =0.05
α* =0.025
α* =0.05
Figura 4-1. Valores críticos de la estadística r para diferentes tamaños de muestra y niveles de
significancia α* = 0.01, 0.025 y 0.05.
En la figura 4-2 se muestra la forma de la distribución de r en forma gráfica, para
diferentes valores de 0T
λ (tamaños de muestra), bajo )1()(αβθ tetm −−= , para un valor fijo
de β = ½ y α = 1, y m = 50 000.
La gráfica que se presenta en la figura 4-2 nos muestra, que conforme el tamaño de
muestra o mas bien el número medio de ocurrencia de eventos aumenta, la distribución del
estadístico r tiende a concentrarse a la unidad, lo cual implica que aumenta la región de
rechazo de la prueba, cuando el valor de 0T
λ aumenta. Esta situación la podemos verificar
en los valores críticos cα*,n en la Tabla 1.
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 26
DISTRIBUCIÓN EMPÍRICA DE r
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0.8 0.85 0.9 0.95 1
r
F(r)
N = 20
N = 30
N = 50
N = 100
N = 200
N = 400
Figura 4-2. Distribución de r dado que N = n, cada una con 50 000 repeticiones.
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J 27
Tabla 1. Valores críticos para la prueba de bondad de ajuste para el PPNH-W
Niveles de α*
N = n 1% 2.5% 5% 10% 15% 20% 25% 50% 75% 95%
15 0.8566225 0.8857020 0.9081887 0.9302913 0.9422470 0.9502135 0.9558962 0.9726131 0.9826326 0.9909048
20 0.8712702 0.8989980 0.9204793 0.9402343 0.9505648 0.9576276 0.9625811 0.9768113 0.9852177 0.9919092
25 0.8774622 0.9058050 0.9271277 0.9463653 0.9559637 0.9624623 0.9671055 0.9798975 0.9871750 0.9929044
30 0.8892962 0.9147626 0.9345304 0.9516080 0.9606319 0.9662533 0.9703292 0.9820061 0.9883495 0.9934741
40 0.9018385 0.9261169 0.9438563 0.9588891 0.9668099 0.9717524 0.9753092 0.9849909 0.9903367 0.9945166
50 0.9151917 0.9356216 0.9507340 0.9642012 0.9711417 0.9755181 0.9786063 0.9870383 0.9916547 0.9952532
60 0.9224446 0.9418731 0.9558348 0.9683083 0.9743634 0.9781895 0.9809367 0.9884617 0.9925864 0.9957468
70 0.9284619 0.9469095 0.9596271 0.9708300 0.9766015 0.9802144 0.9828306 0.9896325 0.9932993 0.9961336
80 0.9352865 0.9520880 0.9632457 0.9735350 0.9785761 0.9818879 0.9842424 0.9905311 0.9939214 0.9964852
90 0.9388531 0.9547655 0.9655573 0.9753317 0.9802102 0.9833694 0.9855039 0.9912034 0.9943430 0.9967604
100 0.9442091 0.9581495 0.9678831 0.9766536 0.9813356 0.9842324 0.9862855 0.9917872 0.9947205 0.9969763
120 0.9497580 0.9621917 0.9713663 0.9795078 0.9836079 0.9861230 0.9879391 0.9927770 0.9953402 0.9973271
150 0.9575431 0.9689477 0.9763015 0.9827911 0.9860576 0.9882479 0.9897366 0.9938128 0.9960059 0.9976917
200 0.9649903 0.9744667 0.9805992 0.9859328 0.9885979 0.9902940 0.9915972 0.9949519 0.9967320 0.9981083
300 0.9745491 0.9809589 0.9855581 0.9893792 0.9914030 0.9926897 0.9936478 0.9961941 0.9975555 0.9985965
400 0.9798378 0.9853008 0.9886377 0.9916134 0.9931666 0.9941813 0.9949142 0.9968895 0.9980064 0.9988565
500 0.9828536 0.9873682 0.9902337 0.9928162 0.9941547 0.9949930 0.9956367 0.9973551 0.9983116 0.9990354
700 0.9872170 0.9904724 0.9926281 0.9945044 0.9954893 0.9961329 0.9965946 0.9979181 0.9986846 0.9992528
1000 0.9908111 0.9929551 0.9945054 0.9958496 0.9965775 0.9970494 0.9974026 0.9984105 0.9989918 0.9994304
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 28
4.3 Ejemplo de Aplicación
En esta sección se trata un ejemplo con datos reales utilizando la metodología de la
prueba de bondad de ajuste de coeficiente de correlación desarrollada en la sección anterior.
Los datos que aquí se manejan, son obtenidos de Kuo y Young Yang (1996). Estos
datos refieren a 31 tiempos entre fallas (x1,…,x31), los cuales fueron basados en el reporte
realizado para uno de los grandes módulos del Sistema de Datos de Táctica Naval (NTDS).
Los primeros 26 errores de falla fueron encontrados durante la fase de producción del
sistema y las últimas 5 fallas durante la fase de prueba. Los tiempos entre fallas (x1,…,x31),
se presentan a continuación:
Tabla 2. Tiempos de ocurrencia entre fallas.
9 12 11 4 7 2 5 8 5 7 1 6 1 9 4 1 3
3 6 1 11 33 7 91 2 1 87 47 12 9 135
Fuente: Kuo y Young Yang (1996)
Kuo y Young Yang (1996) utilizan este mismo conjunto de datos para realizar una
comparación entre los estimadores de Bayes y los estimadores de Máxima Verosimilitud,
utilizando varios modelos como el presentado en (4.2), el cual es un modelo muy utilizado
por diferentes autores para modelar PPNH’s en confiabilidad de software.
En este sentido, se desea verificar, en primera instancia, si los datos de la Tabla 2,
son un PPNH con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0.
(PPNH-W), utilizando la prueba de bondad de ajuste del Coeficiente de Correlación; esto
con la aplicación la metodología presentada en la sección 4.2.
Se obtienen los tiempos de falla (t1,…,t31), mediante i
i jj 1
t x i 1 2 n; , ,...,=
= =∑ y se
muestran en la Tabla 3.
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 29
Tabla 3. Tiempos de ocurrencia de las fallas.
9 21 32 36 43 45 50 58 63 70 71 77 78 87 91
92 95 98 104 105 116 149 156 247 249 250 337 384 396 405
540
En la figura 4-3, se presenta una gráfica t vs N(t), donde permite observar el número
de fallas acumuladas al tiempo T0, correspondiente a los datos presentados en la Tabla 3.
0
5
10
15
20
25
30
35
0 100 200 300 400 500 600
t
N(t)
Figura 4-3. Gráfica del número de fallas acumuladas al tiempo T0.
Entonces, se tiene que Tλ = n, que para nuestro caso es n = 31. Ahora, calculando
los valores de X y Y, definidos en (4.12); es decir:
log log(1 ) ;1
iY
n
= − − + y X = log ti; i = 1, 2, …, n
Podemos ya calcular el Coeficiente de Correlación r que es nuestra estadística de
prueba, mediante la ecuación:
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 30
n
i ii 1
n n2 2
i ii 1 i 1
X X Y Yr Corr X Y
X X Y Y
( )( )
( , )
( ) ( )
=
= =
− −= =
− −
∑
∑ ∑
Se realizan las operaciones necesarias en la ecuación anterior y se tiene finalmente
que el valor de r es 0.9753. Ahora mediante la regla de decisión, decidimos si los datos
apoyan o no a la hipótesis H0, es decir, si los datos de la Tabla 2 son un PPNH-W, para esto
supongamos que queremos un tamaño de prueba α* = 0.05; entonces de la Tabla 1,
obtenemos el valor crítico c0.05,31 para esta prueba, el cual se obtiene c0.05,31 = F-1(0.05) =
0.9345. Por lo tanto, la regla de decisión es rechazar H0 si y solo si r ≤ c0.05.
Entonces, dado que r = 0.9753 > 0.9345, se decide no rechazar H0; es decir, con un
nivel de significancia del 0.05, podemos apoyar la hipótesis y concluir que los tiempos de
fallas (t1,…,t31) presentados en la Tabal 2 son un Proceso Poisson No Homogéneo con
función de intensidad 1( ) ; 0, 0, 0t
W t t eαα βλ θβ α θ β α− −= > > > , (PPNH-W).
Por otro lado, un caso particular del PPNH-W, es el Proceso Poisson No
Homogéneo de tipo Exponencial (PPNH-E), el cual se tiene cuando α = 1 en la función de
valor medio de la ecuación (4.2), es decir cuando los tiempos de ocurrencia de fallas siguen
un Proceso Poisson No Homogéneo con una función de valor medio m*(t) = θF(t), donde F
es la función de distribución acumulada de la distribución Exponencial con parámetro β, es
decir:
0*( ) (1 ) [0, ], 0, 0tm t e t Tβθ β θ−= − ∈ > > (4.15)
Con función de intensidad:
( ) ; 0, 0t
E t e βλ θβ θ β−= > > (4.16)
Tanto el PPNH-W y el PPNH-E son modelos que han sido muy utilizados en
pruebas de software para modelar tiempos de fallas en sistemas Kou y Yang (1996).
PRUEBA DEL COEFICIENTE DE CORRELACIÓN
Ariza H. F. J. 31
Ahora, una vez que se conoce que los tiempos de ocurrencia de falla siguen un
PPNH-W, se muestra interesante y deseable verificar si éstos tiempos de falla pueden
pertenecer a un modelo mas restringido como un PPNH-E. El inconveniente en este
problema, es que mediante la Prueba del Coeficiente de Correlación no podemos saber con
certeza si los tiempos de falla siguen un PPNH-E o bien un PPNH-W, ya que es evidente
que el modelo PPNH-E es un submodelo del PPNH-W; es decir se tiene cuando α = 1 en el
PPNH-W.
Por tanto, se plantea el desarrollo de la Prueba de Razón de Verosimilitudes
Generalizada, en la cual contrastamos que los tiempos de falla presentados en la Tabla 3
son un PPNH con función de intensidad tE t e( ) ;βλ θβ −= β > 0, θ > 0, contra que son un
PPNH con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0.
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 32
5. PRUEBA DE RAZÓN DE VEROSIMILITUDES
GENERALIZADA PARA UN PPNH
La prueba que se propone a continuación tiene la finalidad de verificar si los
tiempos de ocurrencia de eventos t1, t2, ..., tn, observados en un periodo de tiempo [0,T0] de
un proceso de poisson no homogéneo obedecen a un PPNH-E o bien a un PPNH-W. En
otras palabras, probar que los tiempos de eventos t1, t2, ..., tn, son un PPNH con función de
intensidad dada en (4.16) o bien rechazar a favor de que es un PPNH con función de
intensidad dada en (4.4).
El método de razón de verosimilitudes generalizada está relacionado con la
estimación de parámetros por máxima verosimilitud, los cuales son utilizados en la función
de verosimilitud definida en (3.16). Aquí, la prueba se desarrolla condicionando en N(t) =
n, y los tiempos en los cuales los eventos ocurren; es decir, 0 < t1 < t2 < . . . < tn (≤ T0) son
distribuidos como las n estadísticas de orden que corresponden a una muestra aleatoria de
n observaciones de la densidad dada en (3.6). Por lo tanto, la función de distribución
conjunta de 0 < t1 < t2 < . . . < tn ≤ To condicionando en N = n, esta dada por:
( )0
1
0
! ( )( )
( )
n
r
rT n
T
n t
f t
s ds
λ
λ
==∏
∫ (5.1)
CapíCapíCapíCapítulo tulo tulo tulo VVVV
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 33
5.1 Implementación de la prueba
La prueba consiste en obtener el estimador λ* que es el cociente de la verosimilitud
máxima bajo el espacio de parámetros de la hipótesis nula, H0 y la verosimilitud máxima
bajo todo el espacio paramétrico.
Para nuestro caso, la función de verosimilitud se obtiene sustituyendo la función de
intensidad (4.16) en la ecuación (5.1) bajo la hipótesis nula, y la función de intensidad
(4.4) en (5.1) bajo la hipótesis alternativa.
Ahora enfocándonos a nuestro problema de estudiar a un PPNH en un periodo de
tiempo [0,To], con tiempos de ocurrencia de eventos t1, t2, …, tn, con función de intensidad
λ(t), y condicionando en N = n, se tiene interés en contrastar la siguiente hipótesis:
10 1: ( ) e : ( ) et tH t vs H t t
αβ α βλ θ β λ θ βα− − −= = (5.2)
Aquí podemos notar que (5.2) es equivalente a probar:
0 1: 1, 0 : 1, 0H vs Hα α α α= > ≠ > (5.3)
cuando se tiene un PPNH con función de intensidad 1( ) e tt tαα βλ θ βα − −= . Por lo tanto, nos
enfocaremos en la contrastación de hipótesis de (5.3).
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 34
Entonces, se tiene que la función de verosimilitud, bajo la hipótesis nula es:
1
0
ˆ
1ˆ
! ( )
( )
ˆ ˆ! ( e )
ˆ[ (1 e )]
i
n
i
iE n
To
nt
i
To n
n t
L
s ds
nβ
β
λ
λ
θ β
θ
=
−
=−
=
=−
∏
∫
∏
ˆ
ˆ
ˆ! e
(1 e )
n
i
i
tn
E To n
nL
β
β
β =
−
−
∑
=−
(5.4)
Ahora la verosimilitud bajo todo el espacio de parámetros es:
0
1
0
ˆ1
1ˆ
! ( )
( )
ˆ ˆ ˆ! ( e )
ˆ[ (1 e )]
i
n
i
iW n
To
nt
i
r
T n
n t
L
s ds
n tα
α
βα
β
λ
λ
θ βα
θ
=
−−
=
−
=
=−
∏
∫
∏
1
0
ˆ( 1) log ( )
ˆ
ˆ ˆ! e
(1 e )
n n
i i
i i
t tn n
W T n
nL
α
α
α β
β
β α = =
− −
−
∑ ∑
=−
(5.5)
Donde ˆ ˆ ˆˆ( , , )α β θ=δ es el vector de estimadores de máxima verosimilitud, lo cuales
se obtienen mediante solución numérica con la ayuda de un programa realizado en R.2.1.1
(véase programa 3 del anexo B), utilizando como valores iniciales los estimadores de
mínimos cuadrados (véase programa 2 del anexo B).
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 35
5.2 Estadística de prueba
Ahora aplicando la ecuación en (3.17), la razón e verosimilitudes para obtener la
estadística de prueba es
0
1
0
0
1
1
1
1
1
1
1
n
i
i
n nˆ
i i
i i
ˆ
n
i ˆi
n nˆ
i i
i i
ˆ- tn
ˆ- T n
ˆˆ( - ) log t - ( t )n n
ˆ- T n
ˆ tˆTn n
ˆ( ) log t ( t )ˆn n To n
sup L( ; )
sup L( ; )
ˆn! e
( - e )
ˆ ˆn! e
( - e )
ˆn! e ( e )
ˆ ˆn! e ( e )
α
α
α
α
θ ω
θ
β
β
α β
β
ββ
α ββ
β
β α
β
β α
=
= =
=
= =
∈
∈Ω
−−
− −−
=
∑
=∑ ∑
∑−
=∑ ∑
−
θ tλ*
θ t
0
1
1
1
1
n
i ˆi
n nˆ
i i
i i
ˆ tˆT n
ˆ( ) log t ( t )ˆn To n
e ( e )
ˆ e ( e )
α
α
ββ
α ββα
=
= =
−−
− −−
∑−
=∑ ∑
−
(5.6)
Una vez que se obtiene la estadística de prueba λ*, se requiere encontrar su
distribución de probabilidad, con la finalidad de obtener los valores críticos para la prueba
con el tamaño especificado. En nuestro caso, la distribución probabilística de la estadística
λ* no tiene una forma cerrada, por lo que requerimos aplicar el teorema 1, definido en la
sección 3.4.2, el cual establece que bajo ciertas condiciones de regularidad, la distribución
asintótica de -2 log λ* cuando el tamaño de muestra tiende a infinito se distribuye como una
ji-cuadrada con un grado de libertad, χ21. La estadística -2 log λ* puede ser representada en
una forma más simple de manejar, es decir:
E 0 W2 2 ˆ ˆlog l ( ; ) l ( ; ) − = − − λ* δ t δ t (5.7)
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 36
donde E 0ˆl ( )δ ;t y W
ˆl ( )δ;t son las funciones log-verosimilitud de las ecuaciones (5.4) y
(5.5) respectivamente, las cuales están dadas por:
( )0
E 0 E
nT
ii 1
1
n n t n 1 e
E
ˆ
ˆ ˆ ˆl ( ; ) l ( , , ) log L
ˆ ˆlog log logβ
θ β α
β β −
=
= = =
= !+ − − −∑
δ t ;t (5.8)
( )
( )0
W W
n
ii 1
nT
ii 1
n n n 1 t
t n 1 eˆ
W
ˆˆ
ˆ ˆ ˆ ˆl ( ) l ( , , ) log L
ˆ ˆlog log log log
ˆ logαβα
θ β α
β α α
β
=
−
=
= =
= !+ + + −
− − −
∑
∑
δ;t ;t
(5.9)
Sustituyendo (5.8) y (5.9) en (5.7) obtenemos ahora la estadística:
( )
( ) ( )
0
0
E 0 W
nT
ii 1
n nT
i ii 1 i 1
2 2
2 n n t n 1 e n n
n 1 t t n 1 eˆ
ˆ
ˆˆ
ˆ ˆlog l ( ) l ( )
ˆ ˆ ˆlog log log log log
ˆˆlog log logα
β
βα
β β β
α α β
−
=
−
= =
= − = − −
= − [ !+ − − − − !−
− − − + + − ]
∑
∑ ∑
λ ** λ* δ ;t δ;t
( )
( ) ( )0 0
n n n
i i ii 1 i 1 i 1
T T
2 [ t t n 1 t
n 1 e n 1 eˆ
ˆ
ˆ ˆ
ˆ ˆ ˆlog log
log logα
α
β β
β β α α= = =
− −
= − − + − − −
− − + − ]
∑ ∑ ∑ (5.10)
Entonces por el teorema 1, la distribución asintótica de λ** bajo la hipótesis nula
H0, está dada por:
21χλ ** ∼ (5.11)
El principio de la prueba de razón de verosimilitudes dice que H0 es rechazada para
valores pequeños de λ*, pero como -2 log λ* crece cuando λ* decrece, entonces una prueba
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 37
que es equivalente a la prueba de razón de verosimilitudes es rechazar H0 para valores
grandes de 2 log= −λ ** λ * ., es decir:
120 ( ), *Rechazar H si y solo si log > αχ= −λ ** λ * (5.12)
donde χ(1),α* es el valor crítico de la prueba, el cual lo calculamos mediante el siguiente
procedimiento: para un α* dada,
α* = P[rechazar H0 | H0 es verdadera]
= Pr[λ** > χ(1),α* ]
=1- Pr[λ** < χ(1),α* ] = 1-F(χ(1),α*)
1-α* = F(χ(1),α*)
entonces:
χ(1),α* = F-1(1-α*) y F es la función de distribución de λ**, que
corresponde a un nivel de significancia 1-α* en la Tabla de la ji-cuadrada con un grado de
libertad, 21 αχ − (1).
Si H0 es rechazada, entonces se tiene evidencia a favor de la alternativa H1; es decir,
de que los tiempos de ocurrencia de eventos t1, …, tn sean un PPNH-W; si por el contrario,
Ho no es rechazada, entonces no se tiene evidencia para negar de que los tiempos de
ocurrencia sean una PPNH-E.
5.3 Continuación del Ejemplo de Aplicación
Como se ha mencionado en el capítulo anterior, el problema que se tiene con la
Prueba del Coeficiente de Correlación (PCC) es que no podemos discernir si los tiempos de
ocurrencia de las fallas siguen un PPNH-E o bien un PPNH-W; por lo que en las secciones
anteriores se ha desarrollado la Prueba de Razón de Verosimilitudes Generalizada (PRVG),
para dar solución a este problema.
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 38
A continuación se desarrolla el procedimiento para verificar si los tiempos de falla,
presentados en la Tabla 2 son un PPNH-E o bien son un PPNH-W
i. Se plantea el siguiente contraste de hipótesis:
10 1: ( ) e : ( ) et tH t vs H t t
αβ α βλ θ β λ θ βα− − −= =
Aquí se puede ver, que en la hipótesis anterior es equivalente a contrastar:
0 1: 1, 0 : 1, 0H vs Hα α α α= > ≠ >
cuando se tiene un PPNH con función de intensidad 1( ) e tt tαα βλ θ βα − −= .
ii. Se obtienen los estimadores de máxima verosimilitud de los parámetros, con la
ayuda del programa 3 del anexo B, utilizando como semillas los estimadores de
mínimos cuadrados (véase programa 2 del anexo B)
iii. Se calcula el valor de la estadística de prueba, mediante la ecuación (5.10) (véase
anexo B), es decir:
( )
( ) ( )0 0
n n n
i i ii 1 i 1 i 1
T T
2 t t n 1 t
n 1 e n 1 eˆ
ˆ
ˆ ˆ
ˆ ˆ ˆlog log
log logα
α
β β
β β α α= = =
− −
= − [− + − − −
− − + − ]
∑ ∑ ∑λ **
Obteniendo el valor de λ** = 7.237691
iv. Aplicando la regla de decisión se decide si apoyamos o no la hipótesis de que los
datos de la Tabla 2 son un PPNH-E, para esto supongamos que queremos un tamaño
de prueba α = 0.05; entonces se obtiene el valor crítico para esta prueba, el cual es
χ(1),0.05 = F-1(1-0.05) y F es la función de distribución de λ**, que corresponde a un
nivel de significancia 1-α* en la Tabla de la ji-cuadrada con un grado de libertad,
21 αχ − (1). Obteniéndose el valor de 3.841459
La regla de decisión es (1), *Rechazar Ho si y solo si > αχλ ** . Entonces en nuestro
caso λ** = 7.237691 > 3.84146, por lo que se decide rechazar Ho a favor de H1,
PRUEBA DE RAZÓN DE VEROSIMILITUDES GENERALIZADA.
Ariza H. F. J. 39
concluyendo con una nivel de significancia de 0.05 que el valor de α ≠ 1, por lo que los
tiempos de fallas (t1,…,t31) presentados en la Tabla 2 son un Proceso Poisson No
Homogéneo tipo Weibull; es decir con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0,
θ > 0, α > 0 y α ≠ 1. El procedimiento anterior, se puede ver en forma del programa 7
realizado en R versión 2.1.1, presentado en el anexo B.
Una vez que se sabe que los tiempos de falla son un PPNH-W, calculamos los
estimadores de máxima verosimilitud (EMV), con la ayuda del programa 3 del anexo B,
teniendo como valores iniciales los estimadores de momentos que se obtienen con la ayuda
del programa 2 del anexo B. Los EMV para los datos presentados en la Tabla 2, son:
θ = 31.00000001
α = 1.184355671
1 1843
1 1843
1 1843 1 0 00233tW
0 1843 0 00233t
t 31 1 1843 0 0023 t e
0857 t e
.
.
. .
. .
( ) . .
.
λ − −
−
= × × ×
=
β = 0.002334308
0
5
10
15
20
25
30
35
0 100 200 300 400 500 600
t
N(t)
N(t) Observado
N(t) Estimado
Figura 5-1. Número de fallas acumuladas al tiempo t, con su correspondiente función de
intensidad estimada.
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 40
6. ESTUDIO DE SIMULACIÓN PARA EL TAMAÑO Y
POTENCIA DE LAS PRUEBAS
En este capítulo se presenta un estudio de simulación, el cual es utilizado para
evaluar el tamaño y potencia de las pruebas presentadas en los capítulos 4 y 5, lo anterior,
con la ayuda del paquete R versión 2.1.1. Para ambas pruebas, este estudio por simulación
se reduce a estudiar la función de potencia definida en la sección 3.3.1, definición 6.
6.1 Prueba del coeficiente de Correlación
El estudio para el cálculo del tamaño y potencia para esta prueba, comprende
diferentes valores del espacio paramétrico δ = (θ, β, α): θ > 0, β > 0, α > 0 y una muestra
de tamaño de 1,000 observaciones para cada (θ, β, α)
6.1.1 Tamaño de la PCC
Se estudia el tamaño de una prueba como una forma de evaluar la probabilidad de
rechazar un modelo en una prueba estadística de hipótesis, cuando la hipótesis nula H0 es
verdadera; es decir, cuando el modelo propuesto explica la naturaleza de los datos que se
tienen. Concientes de esto, queremos evaluar la probabilidad que se tiene al incurrir en este
tipo de error, llamado error tipo I. entonces, el tamaño de la prueba la definimos
formalmente como: * sup ( )θ ωα β θ∈= . Entonces:
CapíCapíCapíCapítulo tulo tulo tulo VIVIVIVI
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 41
0 0 * 0
* = Prechazar H | H = Pr < c | H αα (6.1)
Ahora para calcular el tamaño de la prueba mediante simulación Monte-Carlo,
asumimos un PPNH con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= observable durante
un intervalo de tiempo [0,T0]. Este proceso de simulación, dado los valores fijos de θ, α y β
puede resumirse en los siguientes pasos:
1. Condicionando en N = n y bajo 1 tW t t e( ) ;
αα βλ θβ α − −= , simular los n tiempos de
ocurrencia de eventos t1, … , tn.
2. Calcular el valor de X y Y, según (4.12).
3. Calcular la estadística r, definida en (3.18).
4. Repetir los pasos del 1 al 3, hasta obtener una muestra de tamaño m de r.
5. Para cada valor de ri, probar la hipótesis con una probabilidad máxima α* de
aceptar el error tipo I y tomar la decisión de rechazar o no rechazar Ho de acuerdo
con la regla de decisión dada en (4.13).
6. Estimamos α , como el cociente del número de rechazos entre el número total de las
m observaciones de r.
Con base en el procedimiento anterior se generó la Tabla 4, en la cual se presentan
los resultados para el tamaño de la prueba y para diferentes valores fijos de α* e 0.01,
0.025, 0.05, λTo e 15, 30, 50, 100, 150, 200 y β e 0.5, 1, 2, 5y α=1, 2, 3 , con m =
1,000 observaciones de r (véase el paso 4). Esto, asumiendo un PPNH con función de
intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= para t e (0,To].
Es importante mencionar que las estimaciones del tamaño para la prueba
presentadas en la Tabla 4 no reflejan diferencias significativas respecto a diferentes valores
de (θ, α y β) e Θ, esto nos confirma lo que ya hemos mencionado, que el tamaño de la
prueba bajo el modelo 1 tW t t e( ) ;
αα βλ θβ α − −= no depende del espacio paramétrico de Θ,
además el tamaño de la prueba tampoco se ve afectado por el número promedio de eventos
λTo por lo que podemos decir que se respeta el tamaño de la prueba.
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 42
Tabla 4. Estudio del tamaño de la prueba del PPNH con 1 tW t t e( ) ;
αα βλ θβ α − −=
α 1 2 5
Tamaño de la prueba Tamaño de la prueba Tamaño de la prueba
λTo
0.01 0.025 0.05 0.01 0.025 0.05 0.01 0.025 0.05
15 0.01 0.02 0.052 0.009 0.021 0.057 0.010 0.028 0.050
30 0.01 0.029 0.054 0.007 0.033 0.051 0.006 0.029 0.056
0.5 50 0.006 0.032 0.05 0.011 0.027 0.052 0.006 0.033 0.050
100 0.007 0.023 0.045 0.017 0.023 0.066 0.005 0.018 0.054
150 0.007 0.024 0.04 0.014 0.030 0.065 0.014 0.019 0.057
200 0.009 0.028 0.049 0.006 0.027 0.052 0.016 0.026 0.061
15 0.012 0.025 0.061 0.014 0.028 0.059 0.011 0.02 0.053
30 0.004 0.023 0.049 0.006 0.017 0.053 0.008 0.027 0.055
1 50 0.007 0.038 0.05 0.012 0.023 0.059 0.016 0.018 0.054
100 0.009 0.028 0.045 0.013 0.026 0.055 0.008 0.033 0.042
150 0.009 0.017 0.051 0.011 0.040 0.044 0.01 0.025 0.052
β 200 0.011 0.034 0.07 0.009 0.020 0.047 0.009 0.029 0.052
15 0.011 0.027 0.041 0.010 0.025 0.046 0.017 0.023 0.054
30 0.012 0.019 0.049 0.013 0.023 0.057 0.013 0.027 0.046
2 50 0.007 0.022 0.043 0.006 0.030 0.045 0.017 0.015 0.043
100 0.008 0.026 0.042 0.006 0.027 0.047 0.01 0.037 0.06
150 0.009 0.022 0.066 0.013 0.030 0.041 0.012 0.027 0.052
200 0.008 0.03 0.047 0.010 0.021 0.054 0.01 0.022 0.066
15 0.013 0.026 0.048 0.007 0.023 0.068 0.009 0.021 0.043
30 0.012 0.033 0.052 0.010 0.018 0.040 0.012 0.018 0.051
5 50 0.007 0.027 0.057 0.018 0.025 0.057 0.009 0.021 0.05
100 0.009 0.035 0.051 0.014 0.016 0.045 0.016 0.032 0.05
150 0.012 0.027 0.06 0.012 0.026 0.056 0.007 0.031 0.041
200 0.007 0.034 0.056 0.015 0.025 0.055 0.015 0.027 0.05
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 43
6.1.2 Potencia de la PCC
En esta sección, se estudia la potencia de la prueba como una forma evaluar la
probabilidad de rechazar un modelo en una prueba estadística de hipótesis, cuando su
hipótesis nula H0, es falsa; es decir, cuando el modelo propuesto no es el adecuado para
explicar la naturaleza de los datos que se tienen. Entonces, la potencia de una prueba mide
la capacidad de una prueba para rechazar modelos que no explican la naturaleza de la
información contenida; esto, lo definimos como:
* sup ( )θ ωδ β θ∈Ω−=
0 1 * 1
* = Prechazar H | H = Pr < c | H αδ (6.2)
Ahora para calcular la potencia de la PCC usando simulación Monte-Carlo, para
diferentes procesos alternativos asumimos un Proceso Poisson homogéneo (PPH), el cual
tiene una función de intensidad ( t )λ λ= , y diferentes PPNH’s con funciones de intensidad
t
CL( t ) eα βλ += , 1 t
L( t ) t e
αα βλ αβ −= , 1D( t ) tαλ αβ −= y 1
MO( t )
tλ = . Estos procesos son
observables durante un intervalo de tiempo [0,T0]. Este proceso de simulación, dado valores
fijos de λ, β y α, puede resumirse en los siguientes pasos:
1. Condicionando en N = n y bajo los diferentes modelos alternativos, simular los n
tiempos de ocurrencia de eventos t1, … , tn.
2. Calcular el valor de X y Y, según (4.12).
3. Calcular la estadística r, definida en (3.18).
4. Repetir los pasos del 1 al 3, hasta obtener una muestra de tamaño m de r.
5. Para cada valor de ri, probar la hipótesis con una probabilidad máxima α* fijada de
antemano.
6. Estimamos δ*, como el cociente del número de rechazos entre el número total de las
m observaciones de r.
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 44
Con base en el procedimiento anterior se generaron las Tabla 5-9, en las cuales se
presentan los resultados para la potencia de la prueba y para diferentes valores fijos de α* e
0.01, 0.025, 0.05, 0.10, 0.15, 0.20, 0.25, 0.50, λTo e 15, 20, 25, 30, 40, 50, 60, 70, 80, 90,
100, 120, 150, 200, 300, 500, 700, así como también los diferentes PPNH’s alternativos
con funciones de intensidad t
CL( t ) eα βλ += , 1 t
L( t ) t e
αα βλ αβ −= , 1D( t ) tαλ αβ −= y
1MO( t )
tλ = , todos para t e (0, T0], y con m = 1,000 observaciones de r. (véase el paso 4).
Cabe mencionar que las estimaciones de la potencia para la prueba presentadas en
las Tablas 5-9, muestran una buena capacidad de rechazar un PPH con función de
intensidad t( )λ λ= , así como también para una PPNH´s alternativos estudiados, cuando
se tiene un PPNH con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0
para t e (0,To]. Podemos observar también que dicha capacidad aumenta conforme el valor
de λTo aumenta (para los valores estudiados), lo cual muestra evidencia que esta prueba
pudiera ser consistente.
Es importante aclarar que estos resultados muestran el comportamiento de la
potencia bajo solo cinco modelos alternativos diferentes, ya que se pueden considerar una
infinidad de modelos alternativos.
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 45
Tabla 5. Estudio de la potencia de la prueba de bondad de ajuste del Coeficiente de Correlación, tomando como alternativa un PPH, con λ(t)= ½.
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50 15 0.053 0.067 0.127 0.221 0.292 0.367 0.425 0.686
20 0.038 0.085 0.151 0.272 0.349 0.390 0.476 0.717
25 0.037 0.080 0.157 0.242 0.364 0.459 0.552 0.800
30 0.034 0.092 0.188 0.316 0.422 0.527 0.555 0.812
40 0.058 0.107 0.206 0.399 0.500 0.568 0.640 0.886
50 0.084 0.151 0.229 0.384 0.544 0.621 0.728 0.923
60 0.065 0.158 0.281 0.466 0.618 0.691 0.782 0.963
70 0.069 0.176 0.289 0.502 0.645 0.750 0.830 0.963
80 0.087 0.198 0.345 0.568 0.695 0.783 0.839 0.977
90 0.115 0.219 0.373 0.591 0.730 0.848 0.874 0.985
100 0.120 0.245 0.413 0.644 0.754 0.850 0.908 0.995
120 0.133 0.267 0.450 0.736 0.831 0.899 0.948 0.995
150 0.167 0.375 0.600 0.803 0.913 0.959 0.971 1.000
200 0.256 0.533 0.732 0.909 0.974 0.992 0.997 1.000
300 0.432 0.757 0.926 0.988 0.998 1.000 1.000 1.000
500 0.818 0.982 0.997 1.000 1.000 1.000 1.000 1.000
700 0.983 1.000 1.000 1.000 1.000 1.000 1.000 1.000
Tabla 6. Estudio de la potencia de la prueba de bondad de ajuste del Coeficiente de Correlación, tomando como alternativa un PPNH, con 2 0 5t
CL( t ) e ; , .α βλ α β+= = = .
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50 15 0.053 0.118 0.175 0.298 0.370 0.472 0.509 0.771
20 0.080 0.133 0.228 0.395 0.428 0.559 0.615 0.814
25 0.073 0.165 0.257 0.418 0.522 0.597 0.690 0.883
30 0.121 0.213 0.325 0.524 0.637 0.685 0.778 0.922
40 0.176 0.284 0.481 0.621 0.741 0.824 0.888 0.966
50 0.205 0.411 0.566 0.726 0.834 0.877 0.915 0.987
60 0.285 0.464 0.660 0.834 0.891 0.940 0.963 0.994
70 0.347 0.561 0.747 0.875 0.930 0.973 0.977 0.999
80 0.465 0.634 0.790 0.934 0.963 0.990 0.990 1.000
90 0.515 0.719 0.857 0.965 0.983 0.993 0.995 1.000
100 0.609 0.805 0.909 0.973 0.991 0.996 1.000 1.000
120 0.708 0.866 0.950 0.992 0.997 0.996 1.000 1.000
150 0.837 0.960 0.991 0.999 1.000 1.000 1.000 1.000
200 0.963 0.996 1.000 1.000 1.000 1.000 1.000 1.000
300 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
500 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
700 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 46
Tabla 7. Estudio de la potencia de la prueba de bondad de ajuste del Coeficiente de
Correlación, tomando como alternativa un PPNH, con 1 3 5t( t ) t e ; , .αα βλ αβ α β−= = =
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50
15 0.165 0.241 0.312 0.451 0.544 0.612 0.650 0.824
20 0.197 0.268 0.401 0.542 0.633 0.710 0.752 0.892
25 0.265 0.341 0.471 0.622 0.718 0.796 0.826 0.933
30 0.274 0.413 0.565 0.683 0.754 0.834 0.864 0.966
40 0.387 0.530 0.660 0.779 0.836 0.882 0.937 0.983
50 0.480 0.616 0.726 0.843 0.905 0.944 0.955 0.997
60 0.537 0.665 0.787 0.895 0.951 0.962 0.970 0.997
70 0.602 0.722 0.866 0.920 0.963 0.979 0.982 0.999
80 0.651 0.794 0.878 0.955 0.971 0.991 0.992 1.000
90 0.679 0.834 0.906 0.968 0.992 0.996 0.997 1.000
100 0.737 0.859 0.927 0.972 0.991 0.994 0.998 1.000
120 0.805 0.921 0.958 0.991 0.994 0.999 1.000 1.000
150 0.888 0.962 0.987 0.997 0.998 1.000 1.000 1.000
200 0.961 0.993 0.999 1.000 1.000 1.000 1.000 1.000
300 0.996 1.000 1.000 1.000 1.000 1.000 1.000 1.000
500 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
700 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
Tabla 8. Estudio de la potencia de la prueba de bondad de ajuste del Coeficiente de Correlación, tomando como alternativa un PPNH, con 1 2 3( t ) t ; , .αλ αβ α β−= = =
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50
15 0.043 0.065 0.141 0.205 0.289 0.353 0.408 0.650
20 0.051 0.087 0.139 0.238 0.336 0.430 0.488 0.738
25 0.046 0.093 0.169 0.303 0.383 0.467 0.548 0.772
30 0.046 0.096 0.168 0.322 0.429 0.495 0.587 0.808
40 0.049 0.135 0.220 0.379 0.465 0.580 0.663 0.876
50 0.053 0.145 0.230 0.424 0.542 0.650 0.714 0.914
60 0.063 0.145 0.280 0.465 0.591 0.679 0.787 0.931
70 0.076 0.168 0.328 0.512 0.644 0.738 0.834 0.960
80 0.084 0.211 0.329 0.562 0.702 0.772 0.873 0.982
90 0.094 0.220 0.368 0.574 0.750 0.831 0.892 0.985
100 0.115 0.248 0.406 0.640 0.765 0.869 0.904 0.988
120 0.117 0.281 0.482 0.700 0.825 0.916 0.946 0.998
150 0.159 0.397 0.591 0.829 0.911 0.958 0.985 1.000
200 0.250 0.516 0.725 0.924 0.975 0.991 0.998 1.000
300 0.455 0.746 0.916 0.985 0.998 1.000 1.000 1.000
500 0.840 0.979 1.000 1.000 1.000 1.000 1.000 1.000
700 0.991 1.000 1.000 1.000 1.000 1.000 1.000 1.000
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 47
Tabla 9. Estudio de la potencia de la prueba de bondad de ajuste del Coeficiente de
Correlación, tomando como alternativa un PPNH, con 1( t ) ; m( t ) ln t.t
λ = =
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50
15 0.012 0.020 0.063 0.152 0.235 0.337 0.401 0.680
20 0.005 0.010 0.082 0.197 0.313 0.434 0.539 0.796
25 0.002 0.021 0.093 0.262 0.412 0.515 0.623 0.884
30 0.003 0.028 0.116 0.335 0.494 0.613 0.732 0.940
40 0.007 0.058 0.216 0.520 0.683 0.815 0.903 0.984
50 0.012 0.104 0.361 0.691 0.837 0.902 0.955 0.997
60 0.018 0.173 0.497 0.812 0.932 0.974 0.983 0.998
70 0.046 0.275 0.648 0.908 0.978 0.992 0.992 0.999
80 0.098 0.452 0.781 0.958 0.985 0.999 0.998 1.000
90 0.131 0.580 0.866 0.983 0.996 0.999 0.999 1.000
100 0.239 0.699 0.927 0.992 0.998 1.000 1.000 1.000
120 0.463 0.872 0.984 1.000 1.000 1.000 1.000 1.000
150 0.821 0.994 1.000 1.000 1.000 1.000 1.000 1.000
200 0.989 1.000 1.000 1.000 1.000 1.000 1.000 1.000
300 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
500 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
6.2 Prueba de Razón de Verosimilitudes
Referente al estudio de simulación para el tamaño y potencia de esta prueba, se
toman en cuenta diferentes valores del espacio paramétrico Θ = (θ, β, α): θ > 0, β > 0, α >
0 y una muestra de 1,000 observaciones para cada (θ, β, α). Como ya hemos dicho, el
estudio de estos criterios de evaluación se reducen a estudiar la función de potencia, y para
calcularla en forma analítica, es necesario conocer la distribución exacta de nuestra
estadística de prueba, en este caso λ*, como se mencionó en la sección 5.2, la complejidad
de λ* nos impide calcular su distribución en una forma cerrada. Sin embargo, la estadística
-2 log λ* tiene una distribución asintótica, la cual se emplea para construir la regla de
decisión.
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 48
6.2.1 Tamaño de la PRVG
Aquí se desarrolla un estudio de simulación Monte-Carlo, para obtener la
estimaciones de los valores correspondientes al tamaño de la prueba de razón de
verosimilitudes generalizada; lo anterior, como una forma de evaluar la probabilidad de
rechazar un modelo en una prueba estadística de hipótesis, cuando su hipótesis nula H0 es
verdadera; es decir, cuando el modelo propuesto explica la naturaleza de los datos que se
tienen. Concientes de esto, queremos evaluar la probabilidad que se tiene al incurrir en este
tipo de error, llamado error tipo I, definido en (6.1), el cual puede ser tomado como una
medida de discriminación de la estadística λ** = -2 log λ* cuando Ho es verdadera.
Ahora para calcular el tamaño de la prueba, se asume un PPNH con función de
intensidad tE t e( ) ;
βλ θβ −= θ > 0, β > 0, observable en un intervalo de tiempo [0,T0]. Este
proceso de simulación, dado valores fijos de θ y β puede resumirse en los siguientes pasos:
1. Condicionando en N = n y bajo tE t e( ) ;
βλ θβ −= , simular los n tiempos de
ocurrencia de eventos t1, … , tn.
2. Calcular los estimadores de máxima verosimilitud.
3. Calcular la estadística λ** = -2 log λ*, definida en (5.10).
4. Repetir los pasos del 1 al 3, hasta obtener una muestra de tamaño m de λ**.
5. Para cada valor de λi**, probar la hipótesis con una probabilidad máxima α* de
aceptar el error tipo I y tomar la decisión de rechazar o no rechazar Ho de acuerdo
con l regla de decisión dada en (5.12)
6. Estimamos α , como el cociente del número de rechazos entre el número total de las
m observaciones de λi**
Con base en el procedimiento anterior se generó la Tabla 10, en la cual se presentan
los resultados para el tamaño de la prueba y para diferentes valores fijos de α* e 0.01,
0.025, 0.05, λTo e 20, 30, 50, 70, 100, 150, 200, 300, 500 y β e 0.5, 1.0, 2, con m =
1,000 observaciones de λi** (véase el paso 4). Esto, asumiendo un PPNH con función de
intensidad tE t e( ) ;
βλ θβ −= θ > 0, β > 0 para t e (0,To]. Es importante mencionar que las
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 49
estimaciones del tamaño para la prueba presentadas en la Tabla 10 no se ven afectadas con
respecto valores diferentes de λTo, (número promedio de eventos), bajo la función de
intensidad tE t e( ) ;
βλ θβ −= por lo que en su mayoría se respeta el tamaño de la prueba; es
decir la prueba no rechaza cuando la hipótesis nula es verdadera. En el caso cuando β = 2,
se observa que el tamaño de la prueba no se respeta para valores de λTo pequeños de los
valores estudiados, específicamente para los tamaños de prueba α* = 0.01 y 0.025.
Tabla 10. Estudio del tamaño de la Prueba de Razón de Verosimilitudes
Generalizada para un PPNH con tE t e( ) ;
βλ θβ −=
Tamaño de la Prueba
N 0.01 0.025 0.05
20 0.001 0.003 0.013
30 0.005 0.008 0.01
50 0.005 0.014 0.014
70 0.002 0.004 0.013
0.5 100 0.004 0.007 0.015
150 0.001 0.011 0.019
200 0.001 0.01 0.027
300 0.008 0.01 0.015
500 0.01 0.017 0.016
20 0.004 0.006 0.012
30 0.002 0.009 0.008
50 0.002 0.007 0.015
70 0.002 0.008 0.013
β 1 100 0.004 0.007 0.012
150 0.005 0.01 0.021
200 0.003 0.003 0.011
300 0.002 0.002 0.007
500 0.002 0.007 0.009
20 0.015 0.03 0.041
30 0.012 0.025 0.028
50 0.015 0.035 0.032
70 0.011 0.026 0.022
2 100 0.01 0.024 0.03
150 0.009 0.013 0.027
200 0.004 0.017 0.022
300 0.006 0.01 0.015
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 50
6.2.2 Potencia de la PRVG
En esta sección, se estudia la potencia de la prueba de razón de verosimilitudes, la
cual puede ser tomada como una medida de a capacidad de una prueba para rechazar
modelos que no explican la naturaleza de la información contenida, la cual se define en
(6.2).
Ahora para calcular la potencia de la prueba usando simulación Monte-Carlo,
asumimos un PPNH con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0,
observable durante un intervalo de tiempo [0,T0]. Este proceso de simulación, dado valores
fijos de θ, β y α puede resumirse en los siguientes pasos:
1. Condicionando en N = n y bajo 1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0, simular
los n tiempos de ocurrencia de eventos t1, … , tn.
2. Calcular los estimadores de máxima verosimilitud.
3. Calcular la estadística λ** = -2 log λ*, definida en (5.10).
4. Repetir los pasos del 1 al 3, hasta obtener una muestra de tamaño m de λ**.
5. Para cada valor de λi**, probar la hipótesis con una probabilidad máxima α* de
aceptar el error tipo I y tomar la decisión de rechazar o no rechazar Ho de acuerdo
con l regla de decisión dada en (5.12).
6. Estimamos δ , como el cociente del número de rechazos entre el número total de las
m observaciones de λi**
Con base en el procedimiento anterior se generaron las Tablas 11-13, en las cuales
se presentan los resultados para la potencia de la prueba y para diferentes valores fijos de
α* e 0.01, 0.025, 0.05, 0.10, 0.15, 0.20, 0.25, 0.30, λTo e 15, 20, 25, 30, 40, 50, 60, 70,
80, 90, 100, 120, 150, 200, 300, 500, 700, α = 0.5, 2 y β e 0.5, 2, con m = 1,000
observaciones de λ**. Esto, asumiendo un PPNH con función de intensidad
1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0 para t e (0,To].
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 51
Tabla 11. Estudio de la potencia de la PRVG, tomando como alternativa un PPNH, con
función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= con β = ½ y α = 2
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50 15 0.71 0.73 0.64 0.79 0.84 0.75 0.87 0.86
20 0.73 0.83 0.85 0.91 0.85 0.91 0.95 0.93
25 0.78 0.89 0.93 0.93 0.94 0.94 0.90 0.95
30 0.92 0.85 0.91 0.96 0.97 0.97 0.99 0.98
40 0.95 0.96 0.98 0.99 0.99 0.98 0.99 1.00
50 0.95 0.99 0.99 0.97 0.99 1.00 1.00 1.00
60 0.99 1.00 1.00 0.99 0.99 1.00 1.00 1.00
70 1.00 0.99 1.00 1.00 1.00 1.00 1.00 1.00
80 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
90 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
100 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
120 0.99 1.00 1.00 1.00 1.00 1.00 1.00 1.00
150 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
200 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
300 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
500 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
700 1.00 1.00 1.00 1.00 1.00 1.00 1.00 1.00
Tabla 12. Estudio de la potencia de la PRVG, tomando como alternativa un PPNH, con
función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= con β = 2 y α = 2.
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50 15 0.617 0.681 0.769 0.825 0.825 0.857 0.887 0.908
20 0.774 0.829 0.871 0.895 0.915 0.944 0.942 0.939
25 0.876 0.885 0.934 0.955 0.966 0.966 0.973 0.971
30 0.921 0.950 0.971 0.977 0.979 0.988 0.988 0.989
40 0.976 0.981 0.984 0.991 0.997 0.996 0.996 0.997
50 0.989 0.995 0.996 0.997 0.997 1.000 1.000 0.999
60 0.998 1.000 1.000 0.999 1.000 1.000 1.000 1.000
70 0.997 1.000 1.000 1.000 1.000 1.000 1.000 1.000
80 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
90 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
100 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
120 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
150 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
200 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
300 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
500 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
700 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 52
Tabla 13. Estudio de la potencia de la PRVG, tomando como alternativa un PPNH, con
función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= con β = 2 y α = ½.
N *α
0.01 0.025 0.05 0.10 0.15 0.20 0.25 0.50 15 0.510 0.664 0.732 0.845 0.869 0.920 0.924 0.955
20 0.686 0.782 0.840 0.911 0.943 0.952 0.965 0.973
25 0.796 0.842 0.914 0.954 0.967 0.968 0.985 0.991
30 0.839 0.921 0.945 0.964 0.983 0.983 0.990 0.994
40 0.936 0.960 0.976 0.990 0.997 0.998 0.994 0.998
50 0.984 0.988 0.993 0.994 0.999 1.000 0.998 0.999
60 0.989 0.995 0.995 0.999 0.998 1.000 1.000 1.000
70 0.989 0.996 1.000 0.999 0.999 1.000 1.000 1.000
80 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
90 1.000 0.999 1.000 1.000 1.000 1.000 1.000 1.000
100 0.999 1.000 1.000 1.000 1.000 1.000 1.000 1.000
120 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
150 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
200 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
300 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
500 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
700 1.000 1.000 1.000 1.000 1.000 1.000 1.000 1.000
En las Tablas 11-13, se observa que al aumentar el número de eventos λTo en un
PPNH ocurridos en un intervalo de tiempo [0,T0], aumentan también las estimaciones del
poder de la prueba, cuando los valores de los parámetros α y β permanecen fijos. Cabe
señalar, que las estimaciones de la potencia de la prueba son muy buenas, ya que son
mayores que 0.51 para todos los casos, además de que convergen rápidamente a la unidad
con tamaños de muestras no muy grandes, lo cual muestra que esta prueba pudiera ser
consistente.
Dado los resultados anteriores, podemos mencionar que la prueba de razón de
verosimilitudes rechaza Ho dada en (5.2) cuando no se debe apoyar, y no la rechaza cuando
se debe apoyar, por lo que decimos entonces que la prueba se desempeña correctamente.
TAMAÑO Y POTENCIA DE LAS PRUEBAS
Ariza H. F. J. 53
0.000
0.100
0.200
0.300
0.400
0.500
0.600
0.700
0.800
0.900
1.000
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
alfa
Potencia estimad
aa* = 0.01
a* = 0.025
a* = 0.05
Figura 6-1. Potencia de la PRVG, para una tamaño de muestra 30, tomando como
alternativa un PPNH, con función de intensidad 1 tW t t e( ) ;
αα βλ θβ α − −= para diferentes
valores de α y un valor fijo de β = 2.
CONCLUSIONES
Ariza H. F. J. 54
7. CONCLUSIONES
En esta sección, se concluye con base en el trabajo realizado en los capítulos
anteriores, principalmente, con relación a la prueba de bondad de ajuste del Coeficiente de
Correlación (PCC) y a la Prueba de Razón de Verosimilitudes Generalizada (PRVG) con el
propósito de verificar si un conjunto de datos, que representan los tiempos de ocurrencia de
fallas en un sistema (t1,…,tn), siguen un PPNH con función de intensidad λ(t) dada; en un
intervalo de tiempo (0,T0]; así como también, con base en los resultados obtenidos en el
estudio por simulación para el tamaño y potencia de las pruebas.
I. Una de las características importantes para ambas estadísticas de prueba, es su
invarianza respecto a sus parámetros, ya que sus respectivas distribuciones no
dependen de dichos parámetros. Sin embargo, para el caso del estadístico r, en la
PCC, observamos que su distribución, sí depende del tamaño de muestra n (ver
figura 4-1); es decir, que depende del número de eventos promedio λTo, ocasionando
con esto, que la región de rechazo de la prueba aumente, conforme crece el valor de
λTo, en otras palabras la prueba se vuelve mas estricta cuando λTo crece.
II. Con respecto a la potencia de las pruebas, ambas aumentan conforme el número de
eventos λTo aumenta, para diferentes valores de α* (niveles de significancia).
Acercándose a la unidad, por lo que se dá una evidencia de que estas pruebas
pudieran ser consistentes.
CapíCapíCapíCapítulo tulo tulo tulo VIIVIIVIIVII
CONCLUSIONES
Ariza H. F. J. 55
III. En cuanto a la Prueba de Razón de Verosimilitudes Generalizada, se puede ver que
su potencia es bastante buena, lo cual la hace ser bastante concluyente cuando
efectivamente se trata de un PPNH con función de intensidad
1 tW t t e( ) ;
αα βλ θβ α − −= β > 0, θ > 0, α > 0. Con respecto al estudio del tamaño de la
prueba, a pesar de que se utiliza el resultado asintótico, la prueba nos arroja muy
buenos tamaños para los diferentes niveles de significancia estudiados, excepto para
valores de β = 2 y valores pequeños de λTo, con α* = 0.01, en donde se presentan
tamaños ligeramente mayores a los deseados. En general, la PRVG trabaja
correctamente, rechazando la hipótesis nula H0 cuando se tiene que rechazar y no
rechazar, cuando no se tienen que rechazar.
IV. En el caso de la Prueba de bondad de ajuste del Coeficiente de Correlación,
podemos notar que tiene un poco menos potencia con respecto a la PRVG; aunque
no se vale tal comparación ya que no se tienen las mismas alternativas. Pero de
igual forma la prueba es también bastante concluyente cuando efectivamente se
trata de PPNH’s con funciones de intensidad t
CL( t ) eα βλ += , 1 t
L( t ) t e
αα βλ αβ −= ,
1D( t ) tαλ αβ −= y 1
MO( t )
tλ = , así como cuando se trata de un PPH, es decir con
función de intensidad t( )λ λ= . Con respecto al estudio del tamaño de la prueba, se
arrojan buenos tamaños para diferentes niveles de significancia y valores de λTo
estudiados; es decir, se respeta el tamaño de la prueba, no rechazando la hipótesis
cuando realmente se debe apoyar. Cabe señalar que esta prueba es recomendable
utilizarla como un procedimiento inicial cuando no se tiene evidencia de la
distribución de los datos (tiempos de ocurrencia de eventos).en la hipótesis
alternativa.
V. Finalmente, podemos mencionar que la Prueba del Coeficiente de Correlación y la
Prueba de Razón de Verosimilitudes Generalizada son dos pruebas
complementarias y pueden ser usadas dependiendo de la situación del problema. Por
ejemplo, cuando se desea contrastar una hipótesis en donde se tiene la evidencia de
la hipótesis alternativa es más conveniente utilizar la PRVG, de lo contrario, cuando
CONCLUSIONES
Ariza H. F. J. 56
no se tiene la evidencia de la hipótesis alternativa es recomendable utilizar la PCC.
En particular en este trabajo, se utilizaron estas pruebas complementariamente en un
conjunto de datos, ya que primero se utilizó la PCC para verificar si los tiempos de
falla del sistema son un PPNH-W, y después se utilizó la PRVG para poder
discernir si estos tiempos de falla eran un PPNH-E o bien PPNH-W, concluyendo
con un nivel se significancia de 0.05, que los tiempos de falla presentados en la
Tabla 2 siguen un PPNH-W.
BIBLIOGRAFIA
Ariza H. F. J. 57
8. BIBLIOGRAFÍA.
[1] Basawa, Ishwar, and Prakasa Rao, B. L. S. “Statistical Inference for
Stochastics Processes”. ACADEMY PRESS. 1980.
[2] Casella, George. Berger, Roger. “Statistical Inference”, Second Edition.
DUXBURY, Thomson Learning, 2002.
[3] Cox, David Roxbee and Lewis, P. A. W. “The Statistical Analysis of Series of
Events”, METHUEN, London, 1966.
[4] Cox, David Roxbee, Miller, H. D. “The Theory of Stochastic Processes”.
JOHN WILEY & SONS INC. 1965.
[5] Degroot, H. Morris. “Probability and Statistics”. Second Edition. ADDISON-
WESLEY COMPANY, INC. 1975.
[6] Freedman A. David. “Poisson Processes with Random Ariival Rate”. The
Annals of Mathematical Statistics. Vol. 33, No. 3. Sep., 1962.
[7] Frenkel, I. B., Gertsbakh, I, B. Y Khvatskin. “Parameter Estimation and
Hypotheses Testing For Nonhomogeneous Piosson Process: Part 2.
Numerical Examples”. Transport and Telecomunication, Vol. 5, N 1, 2004.
CapíCapíCapíCapítulo tulo tulo tulo VIIIVIIIVIIIVIII
BIBLIOGRAFIA
Ariza H. F. J. 58
[8] Karlin, Samuel. Taylor, Howard. “A First Course in Stochastic Processes”,
Second Edition. ACADEMY PRESS INC. 1975.
[9] Lange, Kenneth. “Numerical Analysis for Statisticians”. SPRINGER-
VERLAG, New York, Inc. 1999.
[10] Lee J. Bain, Max Engelhardt y F. T. Wright. “Tests for Increasing Trend in
the Intensity of a Poisson Process: A Power Study”. Journal of Amarican
Statistical Association, Vol. 80, No. 390, Jun., 1985.
[11] Lewis A. W. P. “Some Results on Tests for Poisson Processes”. Biometrika,
Vol. 52, No. 1/2. Jun., 1965.
[12] Lewis A. W. P. y Shedler G. S. “Simulation of Nonhomogeneous Poisson
Processes with Log Linear Rate Function”. Biometrika, Vol. 63, No. 3,
December, 1976.
[13] Lewis A. W. Peter. “Non-Homogeneous Branching Poissn Processes”.
Journal of the Royal Statistical Society. Series B (Methodological), Vol.29, No.
2, 1967.
[14] López-Segovia, L., Villaseñor-Alva, J. A. y Vaquera-Huerta, H. “Dos Pruebas
de Bondad de Ajuste Para Procesos de Poisson No Homogéneos”.
Agrociencia 36(3) pp.703-712 (2002).
[15] Lynn Kuo y Tae Young Yang. “Bayesian Computación for Non-
Homogeneous Poisson Processes in Software Reliability”. Journal of the
American Statistical Asssociation. June 1996, Vol. 91, No. 434. Theory and
Methods.
BIBLIOGRAFIA
Ariza H. F. J. 59
[16] Mood, Alexander. Graybill, A. Franklin. Boes, C.Duane. “Introduction to the
Theory of Statistics”. Third Edition. McGRAW-HILL BOOK COMPANY.
1974.
[17] Parzen, Emanuel, “Procesos Estocasticos”. Parainfo, Madrid , España
.HOLDEN-DAY, INC. 1972.
[18] Peskir G., Shiryaev A. N. “Sequential Testing Problems for Poisson
Processes”. The Annals of Statistics, Vol. 28, No. 3. Jun., 2000.
[19] Ross, M. Sheldon. “Simulación” Second Edition. PRENTICE HALL, México
1999.
[20] Ross, M. Sheldon. “Stochastic Processes” Second Edition. JOHN WILEY,
New York, 1996.
[21] Srinivasan, S. K. Mehata, K. M. “Stochastic Processes”, McGRAW-HILL
PUBLISHING COMPANY. 1976.
[22] Tanner, A. Martin. “Tools for Statistical Inference”. Second Edition.
SPRINGER-VERLAG, New York, Inc. 1993.
[23] Villaseñor-Alva, J. A. y Díaz-Carreño, M. A. “Pruebas No Paramétricas Para
Procesos Poisson No Homogeneos”. Agrociencia, 37(1) pp. 21-31., 2003.
60
ANEXOSANEXOSANEXOSANEXOS
61
ANEXO A. SE PRESENTA EL PROGRAMA COMPLETO REALIZADO EN EL
PAQUETE R.2.1.1 REFERENTE A LA PRUEBA DE BONDAD DE AJUSTE DEL
COEFICIENTE DE CORRELACIÓN.
1.- Aquí presentamos las funciones para generar números aleatorios, lo tiempos de
ocurrencia de un PPH, un PPNH-E, un PPNH-W, el Proceso de Cox y Lewis, el Proceso
Ley Potencia, un PPNH propuesto por López (2000)y un logarítmico, utilizados para el
estudio de la potencia de la PCC.
poisson.homogeneo<-function(n,lambda)
to<- cumsum(rexp(n,lambda))
to
ppnh.exp<-function(teta,beta)
n<-rpois(1,teta)
u<-runif(n)
t<--(1/beta)*log(1-(u*n)/teta)
to<-sort(t)
to
ppnh.weibull<-function(teta,beta,alfa)
n<-rpois(1,teta)
u<-runif(n)
t<-(-(1/beta)*log(1-(u*n)/teta))^alfa
to<-sort(t)
to
ppnh.cl<-function(m,alfa,beta)
n<-rpois(1,m)
u<-runif(n)
k<-(1/beta)*exp(alfa)
t<-(1/beta)*log(((u*n)/k)+1)
to<-sort(t)
to
62
ppnh.lp<-function(alfa,beta,n)
nn<-rpois(1,n)
u<-runif(nn)
t<-(nn*u/beta)^(1/alfa)
to<-sort(t)
to
ppnh.wl<-function(alfa,beta,n)
nn<-rpois(1,n)
u<-runif(nn)
t<-((1/beta)*log(nn*u+1))^(1/alfa)
to<-sort(t)
to
ppnh.log<-function(alfa,beta,n)
nn<-rpois(1,n)
u<-runif(nn)
t<-exp(nn*u/alfa)-beta
to<-sort(t)
to
2.- Con esta función obtenemos la estadística de prueba r definida en 3.18.
correlacion<-function(teta,beta,alfa,m)
# m:tamaño de la muestra
#teta,beta,alfa:parámetros de la distribución weibull.
j<-1
r<-rep(0,m)
while (j<=m)
to<-ppnh.weibull(teta,beta,alfa)
n<-length(to)
i<-1:n
Y<-log(-log(1-i/(n+1)))
X<-log(to)
r[j]<-cor(X,Y)
j<-j+1
r
63
3. Esta función nos genera la tabla de los valores críticos.
tvc<-function(m)
#m=numero de repeticiones para cada valor critico
teta<-
c(15,20,25,30,40,50,60,70,80,90,100,120,150,200,300,400,500,700,10
00)
n<-length(teta)
i<-1
while (i<=n)
r<-correlacion(teta[i],0.5,1,m)
vc<-
quantile(r,c(0.01,0.025,0.05,0.1,0.15,0.20,.25,0.50,0.75,0.95),na.
rm=TRUE)
print(vc)
i<-i+1
tv<-tvc(50000)
4. Función para obtener el Tamaño y Potencia de la Prueba del Coeficiente de Correlación.
typ<-function(ne,pr,m)
#m:numero de comparaciones para el tamaño
#ne:valor esperado
#pr:precision (alfa*)
tvc<-matrix(0,18,9)
tvc[1,]<-c(0,0.01,0.025,0.05,0.1,0.15,0.20,0.25,0.50)
tvc[2,]<-
c(15,0.8566225,0.8857020,0.9081887,0.9302913,0.9422470,0.9502135,0.9558962,0.9726131)
tvc[3,]<-
c(20,0.8712702,0.8989980,0.9204793,0.9402343,0.9505648,0.9576276,0.9625811,0.9768113)
tvc[4,]<-
c(25,0.8774622,0.9058050,0.9271277,0.9463653,0.9559637,0.9624623,0.9671055,0.9798975)
tvc[5,]<-
c(30,0.8892962,0.9147626,0.9345304,0.9516080,0.9606319,0.9662533,0.9703292,0.9820061)
tvc[6,]<-
c(40,0.9018385,0.9261169,0.9438563,0.9588891,0.9668099,0.9717524,0.9753092,0.9849909)
tvc[7,]<-
c(50,0.9151917,0.9356216,0.9507340,0.9642012,0.9711417,0.9755181,0.9786063,0.9870383)
tvc[8,]<-
c(60,0.9224446,0.9418731,0.9558348,0.9683083,0.9743634,0.9781895,0.9809367,0.9884617)
tvc[9,]<-
c(70,0.9284619,0.9469095,0.9596271,0.9708300,0.9766015,0.9802144,0.9828306,0.9896325)
tvc[10,]<-
c(80,0.9352865,0.9520880,0.9632457,0.9735350,0.9785761,0.9818879,0.9842424,0.9905311)
tvc[11,]<-
c(90,0.9388531,0.9547655,0.9655573,0.9753317,0.9802102,0.9833694,0.9855039,0.9912034)
tvc[12,]<-
c(100,0.9442091,0.9581495,0.9678831,0.9766536,0.9813356,0.9842324,0.9862855,0.9917872)
tvc[13,]<-
c(120,0.9497580,0.9621917,0.9713663,0.9795078,0.9836079,0.9861230,0.9879391,0.9927770)
64
tvc[14,]<-
c(150,0.9575431,0.9689477,0.9763015,0.9827911,0.9860576,0.9882479,0.9897366,0.9938128)
tvc[15,]<-
c(200,0.9649903,0.9744667,0.9805992,0.9859328,0.9885979,0.9902940,0.9915972,0.9949519)
tvc[16,]<-
c(300,0.9745491,0.9809589,0.9855581,0.9893792,0.9914030,0.9926897,0.9936478,0.9961941)
tvc[17,]<-
c(500,0.9828536,0.9873682,0.9902337,0.9928162,0.9941547,0.9949930,0.9956367,0.9973551)
tvc[18,]<-
c(700,0.9872170,0.9904724,0.9926281,0.9945044,0.9954893,0.9961329,0.9965946,0.9979181)
k<-tvc[,1]
w<-tvc[1,]
valor<-tvc[match(ne,k),match(pr,w)] #da la posicion del valor critico en tvc
j<-1
rechazos<-rep(0,m)
while (j<=m)
to<-ppnh.weibull(ne,beta=5,alfa=1) #ne=teta *para el tamaño*
to<-poisson.homogeneo(ne,lambda=0.5) #ne=teta *para la potencia*
to<-ppnh.cl(ne,alfa=2,beta=0.5) #ne=teta *para la potencia*
n<-length(to)
i<-1:n
Y<-log(-log(1-(i/(n+1))))
X<-log(to)
r<-cor(X,Y)
if(r<=valor)rechazos[j]<-1
j<-j+1
nr<-sum(rechazos)
tapr<-nr/m
tapr
5. Función que genera la tabla para el tamaño de la PCC
tabla.tp<-function(m)
teta<-c(15,30,50,100,150,200)
alfa<-c(0.01,0.025,0.05)
tpr<-matrix(0,6,3)
for(i in 1:6)
for(j in 1:3)
tpr[i,j]<-typ(teta[i],alfa[j],m)
tpr
tabla.tp(1000)
65
6. Función que genera la tabla para la potencia de la PCC
tabla.pp<-function(m)
teta<-
c(15,20,25,30,40,50,60,70,80,90,100,120,150,200,300,500,700)
alfa<-c(0.01,0.025,0.05,0.10,0.15,0.20,0.25,0.50)
pp<-matrix(0,17,8)
for(i in 1:17)
for(j in 1:8)
pp[i,j]<-typ(teta[i],alfa[j],m)
pp
tabla.pp(1000)
7.- Calculo de la estadística de prueba r, con los datos presentados en el ejemplo de la
sección 4.3.
ti<-
c(9,12,11,4,7,2,5,8,5,7,1,6,1,9,4,1,3,3,6,1,11,33,7,91,2,1,87,47,1
2,9,135)
xi<-cumsum(ti)
To<-sum(ti)
n<-length(ti)
i<-1:n
Y<-log(-log(1-i/(n+1)))
X<-log(xi)
rr<-cor(X,Y)
rr
rr = 0.9753 > 0.9373 (valor crítico con alfa=0.05) por lo tanto no
rechazamos Ho
#Concluyendo que los tiempos de fallas pertenecen a un PPNH-W
66
ANEXO B. A CONTINUACIÓN SE PRESENTA EL PROGRAMA REALIZADO EN
EL PAQUETE R.2.1.1 REFERENTE A LA PRUEBA DE RAZÓN DE
VEROSIMILITUDES GENERALIZADA.
1. Funciones para generar los tiempos de ocurrencia de eventos de una PPNH-E y de
un PPNH-W.
ppnh.exp1<-function(teta,beta)
#fm<-teta*(1-exp(-beta*To))
n<-rpois(1,teta)
u<-runif(n)
t<--(1/beta)*log(1-(u*n)/teta)
to<-sort(t)
to
ppnh.weibull<-function(teta,beta,alfa)
n<-rpois(1,teta)
u<-runif(n)
t<-(-(1/beta)*log(1-(u*n)/teta))^alfa
to<-sort(t)
to
2. Funciones para obtener los Estimadores de Mínimo Cuadrados (EMC), utilizados
como semillas en el cálculos de los Estimadores de Máxima Verosimilitud (EMV).
fx<-function(n)
i<-1
y<-rep(1,n)
Rx<-rep(1,n)
while (i<=n)
y[i]<-i/(n+1)
Rx[i]<-1-y[i]
i<-i+1
yy<-log(-log(Rx))
yy
67
emc.weibull<-function(X,Y)
n<-length(X)
V1<-rep(1,n)
A<-matrix(nrow=n, ncol=2)
A[ ,1]<-V1[ ]
A[ ,2]<-X[ ]
B<-solve(t(A) %*% A) %*% t(A) %*% Y
return(B)
3. Funciones que ayudan a obtener los Estimadores de Máxima Verosimilitud.
fverosimilitudw<-function(parametros,ti)
teta<-parametros[1]
alfa<-parametros[2]
beta<-parametros[3]
n<-length(ti)
To<-ti[n]
-(n*(log(teta)+log(alfa)+log(beta))+(alfa-1)*sum(log(ti))-
beta*sum(ti^alfa)-teta+teta*exp(-beta*(To^alfa)))
emv.weibull<-function(x,semillas)
nlm(fverosimilitudw,semillas,ti=x)
4. Función para calcular el tamaño y potencia de la PRVG.
tp<-function(pre,m,tt)
#m:numero de comparaciones para el tamaño
#teta:valor esperado; beta:parametro
#pr:precision (alfa*)
valor<-qchisq(pre,1)
j<-1
rechazos<-rep(0,m)
while(j<=m)
# t<-ppnh.exp1(tt,2) #cambiar el valor tt=30 para dif tamaños
t<-ppnh.weibull(tt,0.5,2)
n<-length(t)
x<-log(t)
y<-fx(n)
68
e<-emc.weibull(x,y)
semillasw<-rep(0,3)
semillasw[1]<-length(t) #teta
semillasw[2]<-e[2] #alfa
semillasw[3]<-exp(e[1]) #beta
est<-emv.weibull(t,semillasw)
if(est$code==1 || est$code==2)
ef<-est$estimate
teta<-ef[1]
alfa<-ef[2]
beta<-ef[3]
To<-t[n]
vc<--2*(-beta*sum(t)+beta*sum(t^alfa)-n*log(alfa)
-(alfa-1)*sum(log(t))-n*log(1-exp(-beta*To))
+n*log(1-exp(-beta*To^alfa)))
if(vc>=valor)rechazos[j]<-1
j<-j+1
nr<-sum(rechazos)
apr<-nr/m
apr
#rechazos
5. Función que genera la tabla para el tamaño de la PRVG.
tt<-c(20,30,50,70,100,150,200,300,500)
preci<-c(0.99,0.975,0.95)
tpr<-matrix(0,9,3)
for(i in 1:9)
for(j in 1:3)
tpr[i,j]<-tp(preci[j],1000,tt[i])
#tpr
69
6. Función que generar la tabla para la Potencia de la PRVG.
tt<-
c(15,20,25,30,40,50,60,70,80,90,100,120,150,200,300,500,700)
preci<-c(0.99,0.975,0.95,0.90,0.85,0.80,0.75,0.70)
pp<-matrix(0,17,8)
for(i in 1:17)
for(j in 1:8)
pp[i,j]<-tp(preci[j],1000,tt[i])
pp
7. Calculo de la estadística de prueba λ**, para la continuación del ejemplo de la
sección 5.3, para los datos presentados en la sección 4.3
ti<-
c(9,12,11,4,7,2,5,8,5,7,1,6,1,9,4,1,3,3,6,1,11,33,7,91,2,1,87,47,1
2,9,135)
t<-cumsum(ti)
n<-length(t)
x<-log(t)
y<-fx(n)
e<-emc.weibull(x,y)
semillasw<-rep(0,3)
semillasw[1]<-length(t) #teta
semillasw[2]<-e[2] #alfa
semillasw[3]<-exp(e[1]) #beta
est<-emv.weibull(t,semillasw)
ef<-est$estimate
teta<-ef[1]
alfa<-ef[2]
beta<-ef[3]
To<-t[n]
vc<--2*(-beta*sum(t)+beta*sum(t^alfa)-n*log(alfa)
-(alfa-1)*sum(log(t))-n*log(1-exp(-beta*To))
+n*log(1-exp(-beta*To^alfa)))
Vc