Tr bases 3
Transcript of Tr bases 3
>Qu�e es la probabilidad?
Es la parte de las matem�aticas que proporciona modelos para la in-
certidumbre
La incertidumbre se da en los resultados de los experimentos aleatorios
>Qu�e es un experimento aleatorio?
Es una actividad en la que conocemos los posibles resultados pero no
podemos predecirlos con exactitud
Ejemplos:
1. Lanzar una dado tres veces
2. Medir la temperatura
3. N�umero de personas que van a venir a clase ma~nana
Al conjunto de todos los resultados posibles lo llamamos ,! ESPACIO
MUESTRAL
El objetivo de la PROBABILIDAD es medir la certidumbre
(o incertidumbre) de que ocurran determinados sucesos
>Qu�e es un suceso?
Es un acontecimiento que puede o no ocurrir en un experimento
aleatorio y que es combinaci�on de posibles resultados
Ejemplos de sucesos:
1. La suma de los tres dados es 9
2. La temperatura que medimos ahora es superior a la �ultima medida
3. Ma~nana vienen entre 60 y 80 personas a clase
Si llamamosA a un suceso cualquiera
+
P (A)
es la probabilidad de que ocurra el sucesoA
Ejemplo: Tiramos una moneda \no trucada"
P (cara) = 1=2 P (cruz) = 1=2 P (canto) = 0 .
Propiedades de la probabilidad:
1) 0 � P (A) � 1
2) Si A es un suceso que ocurre seguro, P (A) = 1
3) Si A es un suceso que no puede ocurrir, P (A) = 0
4) P (no A) = P ( �A) = 1� P (A)
5) Si A y B son dos sucesos que no tienen nada en com�un,
P (A �o B) = P (A) + P (B)
6) Si A y B son dos sucesos INDEPENDIENTES (la aparici�on de
uno no afecta a la aparici�on del otro),
P (A y B) = P (A;B) = P (A)P (B)
>Qu�e entendemos cuando decimos que P (A) = p ?
Entre las diferentes interpretaciones que existen, la que da origen al
concepto de probabilidad que se utiliza hoy en d��a es la
INTERPRETACI�ON FRECUENTISTA
l
- Si el experimento se repite muchas veces, y
- Registramos cuantas veces sucedeA
La frecuencia relativa
fr =n�umero de veces que ocurre A
n�umero de pruebas
se aproxima cada vez m�as a la medida de incertidumbre P (A)
cuando aumenta el n�umero de pruebas
Espacios muestrales discretos
Son aquellos en los que el n�umero de todos los posibles resultados es
�nito, o si es in�nito, se puede numerar
= fa1; : : : ; an; : : : g - Espacio muestral
En este caso el MODELO DE PROBABILIDAD queda perfectamente
especi�cado dando la probabilidad de cada resultado posible:
P (a1); : : : ; P (an); : : :
1. P (an) � 0 para todo an
2.P
nP (an) = 1
3. La probabilidad de cualquier suceso A es la suma de las proba-
bilidades de los resultados posibles que lo forman
4. Si el espacio muestral es �nito, y el experimento EQUIPROBA-
BLE: P (a1) = � � � = P (an) = 1=n
P (A) =casos favorables
casos posibles| {z },! Regla de Laplace
>Nos interesan todos los detalles del experimento?
Generalmente, NO. Resumimos los resultados del experimento con
variables aleatorias
>Qu�e es una variable aleatoria?
Una VARIABLE ALEATORIA es una transformaci�on de los resultados
de un experimento aleatorio en valores num�ericos
Ejemplo 1: Lanzamos un dado tres veces y nos interesa la suma de los
puntos
= f(1; 1; 1); (1; 2; 1); : : : ; (6; 6; 6)g
La variable aleatoria asociada a este experimento es:
X � Suma de los puntos de los tres lanzamientos
X toma valores en el conjunto f3; 4; : : : ; 17; 18g| {z },! Soporte de X
Ejemplo 2: Medimos el nivel de ruido en tres puntos muy pr�oximos y nos
interesa la medici�on m�as alta
= (0;+1)� (0;+1)� (0;+1)
La variable aleatoria asociada a este experimento es:
Y � Nivel de ruido m�as alto entre los tres puntos
Y toma valores entre (0;+1)| {z },! Soporte de Y
Tipos de variables aleatorias: �!
8>><>>:
- Discretas (como X)
- Continuas (como Y )
- Mixtas
>Qu�e nos interesa de una variable aleatoria?
Nos interesa saber: 1.- C�omo se distribuyen las probabilidades
entre todos los valores que puede tomar
2. Entorno a qu�e valor esperamos el resultado
3.- C�omo es la variabilidad
Distribuci�on de una variable aleatoria
Se entiende por DISTRIBUCI�ON de X a la forma en que se asignan
las probabilidades a los valores que toma X
La distribuci�on se puede representar por:
1. La funci�on de distribuci�on F (x), que se de�ne como
F (x) = P (X � x)
2. Para variables aleatorias discretas, por la funci�on de masa
o de probabilidad
3. Para variables aleatorias continuas, por la funci�on de densidad
Variables aleatorias discretas
La DISTRIBUCI�ON de la v.a. discreta X viene determinada por:
- los valores x1; x2; : : : ; xk; : : : que puede tomar, y
- las probabilidades con que aparecen, p1; p2; : : : ; pk; : : :
pi = P (X = xi) i = 1; 2; : : : ; k; : : :
,! Funci�on de masa o de probabilidad
Comentarios:
1. 0 � P (X = xi) � 1 para todos los i, yP1
i=1pi = 1
2. Si conocemos la distribuci�on de X, podemos calcular la probabili-
dad de que tome valores entre a y b
P (a � X � b) = P (X = a) + P (X = a + 1) + � � �+ P (X = b� 1) + P (X = b)
=
bXxi=a
P (X = xi)
3. Para visualizar la FUNCI�ON DE MASA se utiliza el diagrama de
barras: - En el eje horizontal los valores que toma X
- En el eje vertical las probabilidades de cada valor
Ejemplo: X � no de caras en cuatro lanzamientos de una moneda equili-
brada
0 1 2 3 40
0.1
0.2
0.3
0.4
Variables aleatorias continua
La DISTRIBUCI�ON de la v.a. continua X no puede venir determi-
nada por P (X = xi)
Si X es una v.a. continua =) P (X = x) = 0
La DISTRIBUCI�ON de una v.a. continua viene determinada por la
FUNCI�ON DE DENSIDAD f(x):
- En el eje horizontal los valores que toma X
- En el eje vertical la probabilidad de que la variable tome valores en un
entorno \muy peque~no" de cada punto dividida por la longitud del intervalo
f(x) = F 0(x)
−5 0 50
0.1
0.2
0.3
0.4
1. La funci�on de densidad representa probabilidades por �areas
Si conocemos la distribuci�on de X, podemos calcular la probabilidad
de que tome valores entre a y b
P (a � X � b) = �area que f(x) deja por debajo entre a y b
=
Rb
af(x)dx
2. Siempre es no negativa
3. El �area total que deja la curva por debajo es siempre 1
Vectores aleatorios
Si tenemos las variables aleatoriasX e Y podemos construir el vector
aleatorio: (X; Y )Ejemplo:
X � Altura de una persona
Y � Peso de una persona
1. Cada variable sigue una DISTRIBUCI�ON de probabilidad MARGI-
NAL que puede ser: Discreta
P (X = x), P (Y = y)
�o Continua
f(x), f(y)
2. El vector aleatorio sigue una DISTRIBUCI�ON de probabilidad
CONJUNTA que puede ser: Discreta
P (X = x; Y = y)
�o Continua
f(x; y)
El volumen debajo es = 1 ,!
3. Las v.a. discretas X e Y
son independientes () P (X = x; Y = y) = P (X = x)P (Y = y)
para todo x 2 Sop(X) e y 2 Sop(Y )
Las v.a. continuas X e Y
son independientes () f(x; y) = f(x)f(y)
para todo x 2 Sop(X) e y 2 Sop(Y )
Valores caracter��sticos de una variable aleatoria
Medida de posici�on: >Entorno a qu�e valor esperamos los resultados
del experimento?
1. Para v.a. discretas hacemos un promedio de todos los posibles resul-
tados, ponderando cada uno por su probabilidad de aparecer
E(X) =
1Xi=1
xipi
2. Para v.a. continuas hacemos lo mismo pero ponderando cada resultado
posible por su densidad de probabilidad (e integrando)
E(X) =
Z1
�1
xf(x)dx
E(X) es la MEDIA o ESPERANZA de la v.a. X
Propiedades:
1. Si X es una v.a. y a un n�umero cualquiera
E(aX) = aE(X)
2. Si X es una v.a., a y b dos n�umeros cualesquiera
E(aX + b) = aE(X) + b
3. Si X e Y son dos v.a.
E(X + Y ) = E(X) + E(Y )
4. Si X e Y son dos v.a., a y b dos n�umeros cualesquiera
E(aX + bY ) = aE(X) + bE(Y )
Medida de escala: >C�omo es la variabilidad?
1. Para v.a. discretas hacemos un promedio de las discrepancias entre
todos los posibles resultados y el valor central (MEDIA), ponderando
cada una por la probabilidad de que se de el resultado
V (X) =
1Xi=1
(xi � E(X))2pi
2. Para v.a. continuas hacemos lo mismo pero ponderando cada discrep-
ancia por la densidad de probabilidad (e integrando)
V (X) =
Z1
�1
(x� E(X))2f(x)dx
V (X) es la VARIANZA de la v.a. X
pV (X) es la DESVIACI�ON T�IPICA de la v.a. X
Propiedades de la varianza:
1. V (X) � 0
2. V (X) = E(X2)� E(X)2
3. Si X es una v.a. y a un n�umero cualquiera
V (aX) = a2V (X)
4. Si X es una v.a., a y b dos n�umeros cualesquiera
V (aX + b) = a2V (X)
5. Si X e Y son dos v.a. INDEPENDIENTES
V (X + Y ) = V (X) + V (Y )
-(
Si X e Y no son independientes,
NO ES CIERTO
Valores caracter��sticos de un vector aleatorio
Medida de asociaci�on: >C�omo es la relaci�on?
Cov(X; Y ) = E [(X � E(X))(Y � E(Y ))]
Cov(X;Y ) es la COVARIANZA de la v.a. X
Propiedades:
1. La Cov(X;Y ) es una medida de asociaci�on lineal
2. Cov(X;Y ) = E(XY )� E(X)E(Y )
3. Si X e Y son v.a. discretas,
Cov(X;Y ) =
1Xi=1
1Xj=i
(xi � E(X))(yj � E(Y ))P (X = xi; Y = yj)
4. Si X e Y son v.a. continuas,
Cov(X;Y ) =
Z1
�1
Z1
�1
(x� E(X))(y � E(Y ))f(x; y)dxdy
5. Si X e Y son v.a. INDEPENDIENTES ) Cov(X;Y ) = 0
6. Si Cov(X; Y ) = 0; X e Y son v.a. INDEPENDIENTES
DISTRIBUCI�ON NORMAL
Def: Sea X la variable aleatoria con funci�on de densidad
f(x) =1p2� �
e
�(x� �)2
2�2 x 2 R :
� 2 R y � > 0
Entonces, se dice que X tiene distribuci�on NORMAL
X � N (�; �2)
f(x)
µ
CARACTER�ISTICAS PRINCIPALES DE LA DENSIDAD:
1. Depende de dos par�ametros: � y �
2. Unimodal
3. Sim�etrica con respecto a �
USOS PRINCIPALES:
1) Como modelo de probabilidad para muchos fen�omenos
2) En particular, representa la distribuci�on de probabilidad de muchos procesos
de medici�on sin errores sistem�aticos.
3) Aproxima otras distribuciones, entre ellas la BINOMIAL.
NORMAL EST�ANDAR:
f(z) =1p2�
e
�z2
2 z 2 R :
Z � N (0; 1)
Propiedades:
1) E(Z) =
Z1
�1
zp2�
e�
z2
2 dz = 0
2) V(Z) =
Z1
�1
z2p2�
e�
z2
2 dz = 1
3) F(z) = P (Z � z) =
Zz
�1
1p2�
e�
x2
2 dx ESTA TABULADA
PROPIEDADES DE X � N(�; �2):
1) Z =X � �
�� N (0; 1) ESTADARIZACI�ON DE LA NORMAL
Si Z � N (0; 1) =) X = �Z + � � N (�; �2)
2) E(X) = E(�Z + �) = �E(Z) + � = �
V(X) = V (�Z + �) = �2V (Z) = �2
>C�omo afectan � y � a la distribuci�on?
- Cambios en la media �:
µ1
µ2
- Cambios en la varianza �2: �1 < �2
µ
σ1
σ2
3) F(x) = P (X � x) = P (�+ �Z � x)
= P
�Z � x� �
�
�= FZ
�x� �
�
�
UTILIZAMOS LA TABLA DE LA N (0; 1) PARA CALCULAR
PROBABILIDADES ASOCIADAS A UNA N (�; �2)
Ejemplo:
Sea X � N (1; �2 = 4), >Cu�al es la probabilidad de que X tome valores entre
0 y 3?
P (0 � X � 3) = P
�0� 1
2� X � 1
2� 3� 1
2
�
= P (�0:5 � Z � 1) = P (Z � 1)� P (Z � �0:5)
= (1� P (Z > 1))� P (Z > 0:5) = 1� 0:1587� 0:3085
= 0:5328
0 3
N(1,4)
1
N(0,1)
−.5
N(0,1)
.5
4) Para una N (�; �2) cualquiera, podemos calcular las probabilidades:
P (� � � � X � �+ �) = P (X est�e entre �� �) � 0:68
P (�� 2� � X � �+ 2�) = P (X est�e entre �� 2�) � 0:95
P (�� 3� � X � �+ 3�) = P (X est�e entre �� 3�) � 0:99
µ−σ µ+σ
68%
µ−2σ µ+2σ
95%
µ−3σ µ+3σ
99%
6) Por el TEOREMA CENTRAL DEL L�IMITE, si los resultados de un experi-
mento se deben a:
1. un conjunto \grande" de causas (X1; : : : ; Xn),
2. independientes unas de otras,
3. que act�uan sumando sus efectos,
4. siendo cada una de \poca" importancia,
entonces la distribuci�on de los resultados del experimento es aprox-
imadamente NORMAL.
TCL: Sean X1; : : : ; Xn; : : : v.a. indep. con E(Xi) = �i y V (Xi) = �2
i.
Sea Y =P
n
i=1Xi, entonces
Y �P
n
i=1�ipP
n
i=1�2i
n!1�! Z � N (0; 1)
�Y � AN
�Pn
i=1�i;P
n
i=1�2
i
��
5) La BINOMIAL se puede aproximar por la NORMAL
Si X � Bin(n; p), estamos en las condiciones del TCL
X =nX
i=1
Xi donde X1; : : : ; Xn son v:a:i:i:d: Bernoulli(p)
Entonces,X � nppnp(1� p)
n!1�! N (0; 1)
Lo que dice el teorema es que
Si X � Bin(n; p) =) limn!1
P
X � nppnp(1� p)
� x
!= P (Z � x)
APROXIMACIONES DE LA BINOMIAL
n grande
p peque~no =) Se aproxima por una P(np)np constante
np(1� p) > 5 =) Se aproxima por una N (np; np(1� p))
8) La POISSON tambi�en se puede aproximar por una NORMAL. La aproxi-
maci�on es buena cuando � > 5, entonces
Si Y � P(�) =) Y � �p�
n!1�! N (0; 1)