Distribuciones Probabilsticas
Curso de EstadsticaTAE,2005
J.J. Gmez Cadenas
Distribucin Binomial
Considerar N observaciones independientes tales que:
El resultado de cada experimento es acierto o fallo
La probabilidad de acierto de un experimento dado es p
El conjunto de observaciones N puede considerarse como una nica medidaque puede caracterizarse por la variable aleatoria n :
n = nmero de aciertos (0n N)
El espacio de muestras S se define como el conjunto de posibles valores de npara N observaciones.
Si repetimos el experimento muchas veces con N observaciones cada vez, losvalores resultantes de n ocurren con frecuencias relativas determinadas por ladistribucin binomial.
Derivacin de la forma de la distribucin binomial
Probabilidad de acierto para una observacin dada p
Probabilidad de fallo 1-p
Las observaciones son independientes Probabilidad de acierto y/o fallo deuna secuencia de observaciones (en un orden dado) es el producto de lasobservaciones individuales.
Ejemplo: aafaf P=pp(1-p)p(1-p)=p3(1-p)2
En general P, para una secuencia de n aciertos y (N-n) fallos pn(1-p)N-n
Puesto que el orden de acierto/fallo es irrelevante (estamos interesados sloen el nmero total de aciertos n) calculamos el nmero de secuencias(permutaciones) con n xitos en N observaciones:
N !n!(N n)!
La distribucin binomial, es, entonces:
f (n;N , p) = N !n!(N n)!
pn (1 p)N n
Donde, la notacin f(n; N,p) indica que n es una variable aleatoria, mientras queN y p son parmetros.
Valor esperado y varianza (clculo no trivial):
E[n] = n N !n!(N n)!
pn (1 p)Nnn=0
= NpV[n] = E[n2 ] (E[n])2 = Np(1 p)
NB: E[n] y V[n] no son variables aleatorias sino constantes que dependen de losvalores verdaderos (y posiblemente desconocidos) de p y N.
Ejemplo: Observamos N desintegraciones del .
El nmero n de estas observaciones correspondientes a un determinado canal(e.g, ) sigue la distribucin binomial, con p igual a la relacin desemidesintegracin del canal
Distribucin Multinomial
Similar a la binomial, pero en lugar de 2 posibles resultados (acierto o fallo)hay m posibles resultados.
p = (p1,..., pm ) tal que pii=1
m
= 1Para N observaciones queremos calcular la probabilidad de observar:
n1 con resultado 1
n2 con resultado 2
nm con resultado m
Esta probabilidad sigue la distribucin multinomial
f (n;N , p) = N !n1!n2 !...nm !
p1n1 p2n2 ...pmnm
Ejemplo de multinomial: n = (n1,,nm)representa un histograma con m bins y Nentradas en total
Los ni individuales se distribuyenbinomialmente con parmetrosN,pi
Distribucin de Poisson
Considerar la distribucin binomial en el lmite:
N
p0
E[n]=Np
Puede demostrarse queen este caso n sigue ladistribucin de Poisson
f (n; ) = n
n!e (0 n )
E[n]= nn=0
n
n!e =
V[n]= (n-n=0
)2 n
n!e =
Para grande Poisson tiende a Gauss
Ejemplos de Poisson: Nmero dedesintegraciones de una cierta cantidad dematerial radioactivo en un tiempo fijo t, en ellmite:
Nmero de desintegraciones posibles (e.g,nmero total de tomos) es muy grande
Probabilidad de una desintegracinindividual en t es muy pequea.
Distribucin uniforme
Considerar una variable continua aleatoria definida en todo R. Ladistribucin uniforme es:
f (x; ,) =1
x
0 en otro caso
Es decir, podemos encontrar x con igual probabilidad entre y :
E[x] = x 0
dx =12( + )
V[x] = [x 12( + )]2 1
0
dx =112( )2
Una propiedad importante de la distribucin uniforme es la de que cualquiervariable aleatoria continua x con pdf f(x) y distribucin acumulativa F(x)puede transformarse en una nueva variable y distribuida uniforme entre 0 y 1mediante el cambio de variable:
y = F(x)
dydx
=ddx
f (x ')dx ' = f (x)
x
La pdf de y es:
g(y) = f (x) dxdy
= dydx
dxdy
= 1 0 y 1
Usaremos esta propiedad de la distribucin uniforme en el tema relacionadocon tcnicas de Monte Carlo.
Distribucin exponencial
f (x;) = 1e x , 0 x
E[x] = 1
x0
e xdx =
V[x] = 1
(x )20
e xdx = 2
Ejemplo: El tiempo de desintegracin de una partcula inestable (medido ensu sistema de referencia) sigue una distribucin exponencial
Distribucin de Gauss
f (x;, 2 ) = 12 2
exp((x )2
2 2)
E[x] = x
+
12 2
exp((x )2
2 2)dx =
V[x] = (x )2
+
12 2
exp((x )2
2 2)dx = 2
NB: A menudo y 2 se utlizan para denotar la media y la varianza decualquier pdf, no slo la pdf gausiana.
Distribucin de Gauss estndar: = 0, = 1(x) = 1
2exp(x
2
2)
(x) = (x ')dx '
x
Si y es Gausiana con y 2 entonces x=(y- )/ sigue (x).
Teorema del lmite central
Dadas n variables aleatorias independientes xi, con:
medias i , varianzas i2
pdf arbitraria
Su suma, en el lmite de n grande es una variable aleatoria distribuidagausianamente
yi = xii=1
n
, n : yi est distribuida gausianamente
E[yi ]= ii=1
n
, V[yi ]= 2ii=1
n
El teorema del lmite central supone la justificacin formal para tratar loserrores como variables aleatorias distribuidas gausianamente. Es aplicablesiempre que el error total sea la suma de muchas contribuciones pequeas.
Distribucin de Gauss Multivariada
f (x; ,V ) = 1(2 )N /2 V 1/2
exp 12
(x )TV 1(x )
E[xi ] = icov[xi , x j ] = Vijn = 2
f (x1, x2;1,2 ,1, 2 ,) =1
21 2 1
exp 12(1 2 )
( x1 11
)2 + (x2 2 2
)2 2( x1 11
)(x2 2 2
)
,
= cov[x1, x2 ](1 2 )
coeficiente de correlacin
Distribucin 2
f (z;n) = 12n /2(n / 2)
zn /21e z / 2 , n = 1,2.,,,
n nmero de grados de libertad
(x)= e-tt x1dt0
funcin Gamma
E[z]= z 12n /2(n / 2)
zn /21e z / 2dz = n0
V[z]= (z-n)2 12n /2(n / 2)
zn / 21e z /2dz = 2n0
Dadas N variables aleatorias independientes xi, distribuidas gausianamente,con media i y varianza i2, la variable:
z =(xi i )
2
i2
i=1
N
Sigue la distribucin 2 para N grados de libertad.Como veremos, estas variables son las que utilizamospara estimar la calidad de un ajuste, particularmentecon el mtodo de mnimos cuadrados
Top Related