Introducción a la Probabilidad

16
_____________________________________________________________________________________ 1 REPASO DE LOS CONCEPTOS DE PROBABILIDAD; VARIABLES ALEATORIAS Y FUNCIONES DE PROBABILIDAD. CONCEPTO DE PROBABILIDAD I. de la Fuente y C. San Luis INTRODUCCION: Definiciones previas Experimento Aleatorio: Aquel en el que sus resultados no se pueden establecer con certeza. Espacio Muestral: Es el conjunto de todos los resultados posibles de un experimento aleatorio. Se representa por E. Sucesos Elementales: Son los resultados posibles de un experimento aleatorio, constituyen el espacio muestral asociado al experimento. Pueden ser: o ciertos o seguros o posibles : o imposibles La combinación de dos a más los sucesos elementales (pertenecientes a un Experimento) da lugar a un suceso compuesto. Ejemplo 1 En el experimento aleatorio “lanzar un dado al aire”, el espacio muestral asociado sería el conjunto: E ={ 1, 2, 3, 4, 5, 6 }; sus elementos son los encerrados entre corchetes. Un suceso cierto o seguro en este espacio muestral es sacar en el lanzamiento un número menor que el 7. Un suceso imposible en este espacio muestral es sacar un número mayor que 6. Un suceso posible en este espacio muestral es por ejemplo sacar un 4 o sacar un número impar (el término posible, en este contexto, se refiere a aquellos casos que no están claramente determinados como verdaderos o falsos). Por tanto un espacio muestral es un conjunto constituido por elementos (que hemos llamado sucesos), entre los que se pueden establecer idénticas relaciones y se pueden efectuar las mismas operaciones que las que se establecen entre cualesquiera conjuntos que se estudian en la “Teoría de Conjuntos”, es decir: Unión; intersección; complementariedad; exclusión Si A y B son dos sucesos cualesquiera, la unión de A y B, AB se define como el suceso que contiene todos los resultados que pertenecen sólo a A, sólo a B o a ambos. Esta operación entre sucesos tiene las siguientes propiedades: 1. AB=BA 2. AA=A 3. A∪φ=A 4. AE=E 5. Si AB entonces AB = B

description

Documentos sobre la probabilidad estadística psicológica.

Transcript of Introducción a la Probabilidad

Page 1: Introducción a la Probabilidad

_____________________________________________________________________________________

1

REPASO DE LOS CONCEPTOS DE PROBABILIDAD; VARIABLES ALEATORIAS Y FUNCIONES DE PROBABILIDAD.

CONCEPTO DE PROBABILIDADI. de la Fuente y C. San Luis

INTRODUCCION: Definiciones previas• Experimento Aleatorio: Aquel en el que sus resultados no se pueden establecer

con certeza.• Espacio Muestral: Es el conjunto de todos los resultados posibles de un

experimento aleatorio. Se representa por E.• Sucesos Elementales: Son los resultados posibles de un experimento aleatorio,

constituyen el espacio muestral asociado al experimento. Pueden ser: o ciertos o seguroso posibles : o imposibles

La combinación de dos a más los sucesos elementales (pertenecientes a un Experimento) da lugar a un suceso compuesto.

Ejemplo 1

En el experimento aleatorio “lanzar un dado al aire”, el espacio muestral asociado sería el conjunto: E = 1, 2, 3, 4, 5, 6 ; sus elementos son los encerrados entre corchetes.

Un suceso cierto o seguro en este espacio muestral es sacar en el lanzamiento un número menor que el 7.Un suceso imposible en este espacio muestral es sacar un número mayor que 6.Un suceso posible en este espacio muestral es por ejemplo sacar un 4 o sacar un número impar (el término posible, en este contexto, se refiere a aquellos casos que no están claramente determinados como verdaderos o falsos).

Por tanto un espacio muestral es un conjunto constituido por elementos (que hemos llamado sucesos), entre los que se pueden establecer idénticas relaciones y se pueden efectuar las mismas operaciones que las que se establecen entre cualesquiera conjuntos que se estudian en la “Teoría de Conjuntos”, es decir: Unión; intersección; complementariedad; exclusión

Si A y B son dos sucesos cualesquiera, la unión de A y B, A∪B se define como el suceso que contiene todos los resultados que pertenecen sólo a A, sólo a B o a ambos. Esta operación entre sucesos tiene las siguientes propiedades:1. A∪B=B∪A2. A∪A=A3. A∪φ=A4. A∪E=E5. Si A⊂B entonces A∪B = B

Page 2: Introducción a la Probabilidad

_____________________________________________________________________________________

2

Si A y B son dos sucesos cualesquiera, la intersección de ambos, A∩B, se define como el suceso que contiene todos los resultados que pertenecen a ambos sucesos. La intersección así definida tiene las siguientes propiedades:1. A∩B = B∩A2. A∩A = A3. A∩φ =φ4. A∩E = A5. Si A⊂B entonces, A∩B = A

Se define el suceso complementario de un suceso dado A, como aquel suceso que contiene todos los resultados del espacio muestral que no pertenecen a A. El suceso complementario tiene las siguientes propiedades:

1. AA =2. EAA =∪3. E=φ

4. φ=∩ AA

5. φ=E

Dados dos sucesos A y B, se dicen disjuntos, mutuamente excluyentes o incompatibles si A y B no tienen resultados en común, es decir, si no se pueden verificar simultáneamente.

Es decir, cuando se plantea una situación de investigación en la que se calculan probabilidades, siempre se manejan los siguientes elementos: un conjunto E, sus resultados elementales o subconjuntos unitarios y todas las combinaciones de dichos subconjuntos elementales. Se trabaja pues, con el conjunto de las partes de E, que serepresenta por:℘(E)= φ, E, 1, 2,...,6,1,2,...,1,2,3,...,1,2,3,4,...1,2,3,4,5

En ocasiones, necesitamos saber contar cuántos elementos contiene el conjunto ℘(Ω), para lo cual tenemos que conocer las reglas de contar (Teoría de los números combinatorios).

CONCEPTO DE PROBABILIDADLa probabilidad se define a partir del concepto de frecuencia.

La probabilidad de un suceso es el valor en que tiende a estabilizarse la frecuencia relativa del mismo, cuando el número de veces que se ha repetido el fenómeno es suficientemente grande

Veamos un sencillo ejemplo para dejar claro el concepto. Aplicando la regla de Laplace,1 sabemos que la probabilidad de salir cara en el lanzamiento de una moneda es

1 Regla de LaplaceRealizamos un experimento aleatorío. Su espacio muestral E tiene todos los sucesos elementales S equiprobables. La probabilidad de un suceso S es:

Número de casos favorables al suceso S.P(S) =

Número de casos posibles del experimento

Page 3: Introducción a la Probabilidad

_____________________________________________________________________________________

3

de un caso favorable dividido por dos casos posibles, es decir, 1/2. Supongamos que hacemos esta experiencia 20 veces, es decir tiramos una moneda 20 veces y vamos anotando los resultados:

NºLanzamiento Resultado Nº caras (ni) Frec.relativa1234567891011121314151617181920

CaCaCrCaCrCrCaCrCrCaCaCrCaCrCrCrCaCrCaCa

122333444566777788910

1/1=12/2=1

2/33/ 43/53/64/74/84/95/106/116/127/137/147/157/168/178/189/1910/20

Si se representan gráficamente los datos del ejemplo (figura 1), se observa que según aumenta el número de casos (lanzamientos), la línea quebrada que une las frecuencias se ajusta más a la horizontal trazada en la ordenada 1/ 2, valor teórico de la probabilidad definida por Laplace, con el que la frecuencia tiende a igualarse cuando el número de repeticiones de la experiencia es muy elevado. A este fenómeno de estabilización de las frecuencias se le conoce como “Ley del azar o ley de regularidad estadística” o “Ley débil de los grandes números”.

Figura 1

0

0 , 2

0 , 4

0 , 6

0 , 8

1

1 , 2

1 2 3 4 5 6 7 8 9 1 0 1 1 1 2 1 3 1 4 1 5 1 6 1 7 1 8 1 9 2 0

S e r i e 1

Page 4: Introducción a la Probabilidad

_____________________________________________________________________________________

4

Aplicar las concepciones de la probabilidad introducidas anteriormente no siempre es fácil, sobre todo si salimos del contexto de los juegos de azar. Supongamos,por ejemplo, que estamos interesados en la incidencia que tiene determinada enfermedad en la población española. Contabilizar el número de casos totales en la población puede ser muy difícil, pero si además lo que buscamos es contabilizar el número de sujetos con rasgos esquizoides, la cuestión se complica más. Imaginemosque existen investigaciones previas sobre esta cuestión que nos llevan a pensar que el número de casos con las características que nos interesan es uno determinado y, nuestra creencia, es que la incidencia real del trastorno toma aproximadamente ese valor. En este caso no podemos utilizar el concepto de probabilidad como se ha introducido anteriormente, hay que introducirlo desde una óptica diferente a las anteriores, desde la perspectiva subjetiva o personalista según la cual, la probabilidad se define del modo siguiente:

La probabilidad de un suceso es el grado de creencia que se tiene en su ocurrencia. Dichas creencias se basan en la información que cada persona tiene del suceso y pueden ser revisadas cuando se recoge nueva información al respecto de la temática de interés

Sea cual sea la concepción de la probabilidad que se utilice, la probabilidad de un suceso es un número que ha de cumplir una serie de condiciones.

AXIOMAS Y TEOREMAS BASICOS DE LA PROBABILIDAD

Axiomática de la probabilidadSuponga que en un experimento aleatorio se necesita asignar a un suceso A, del conjunto ℘(E)2, su probabilidad. Dicha probabilidad, P(A), será un número que debe cumplir tres condiciones o axiomas. La primera se refiere a que dicha probabilidad siempre ha de ser positiva, la segunda indica que si el citado suceso ocurrirá con certeza, su probabilidad vale 1, y la tercera indica que la probabilidad que calculemos de la unión de dos sucesos disjuntos se puede obtener como la suma de las probabilidades individuales de los sucesos.Axioma 1. Para cualquier suceso A∈℘(E), P(A)≥0Axioma 2. P(E)=1Axioma 3. Dados Ai (i=1,...,n) dos o más sucesos disjuntos, P (∪iAi)=∑iP(Ai)

PROPIEDADES DE LA PROBABILIDAD

Propiedades de la probabilidad1. La probabilidad de un suceso cualquiera A, es un número menor que 12. La probabilidad del suceso complementario de un suceso dado, es igual a

P(A’)=1-P(A)3. Si un suceso A está incluido en otro B, entonces P(A)<P(B)4. La suma de las probabilidades de todos los sucesos elementales de un experimento

aleatorio vale 15. Si A y B son dos sucesos compatibles, P(A∪B)=P(A)+P(B)-P(A∩B)

2 Recuélese que ℘(E) representa la conjunto de las partes de E (espacio muestral)

Page 5: Introducción a la Probabilidad

_____________________________________________________________________________________

5

6. Si A, B y C son tres sucesos compatibles, P(A∪B∪C)=P(A)+P(B)+P(C)-P(A∩B)-P(A∩C)-P(B∩C)+P(A∩B∩C)

Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de autoevalución ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS “Más para entender la probabilidad”.

PROBABILIDAD CONDICIONADA

SUCESOS CONDICIONADOS Y SUCESOS INDEPENDIENTES

Un suceso A está condicionado por otro B, si la ocurrencia de B puede hacer cambiar el valor de probabilidad de ocurrencia de A.Dos sucesos A y B, por el contrario, se dicen independientes, si la ocurrencia de uno cualquiera de ellos no afecta a la ocurrencia del otro.

Probabilidad condicionada Teorema producto Sucesos independientes.

)B(P

)BA(P)B/A(P

∩=

==∩ )A/B(P)A(P)BA(P)/()( BAPBP

)().()( BPAPBAP =∩

Suponga que en una determinada población estudiantil hemos recogido la siguiente información, de una parte, el número de horas de estudio de los estudiantes (bajo, alto) de otra, sus calificaciones en una determinada materia, es decir, su rendimiento (suspenso, aprobado).

El suceso “estudiar un nº de horas alto y estar aprobado” se corresponde (según lo visto hasta ahora) con el suceso A∩B o B∩A, donde el suceso A es “estar aprobado”, y el suceso B, dedicar un “alto” número de horas al estudio”.

Si planteamos la cuestión como el suceso “estar aprobado, sabiendo que se ha estudiado un número alto de horas” estamos hablando de dependencia entre los dos sucesos, es decir, en el ejemplo “la calificación de aprobado aparece condicionada al hecho de dedicar un alto número de horas al estudio”. Se trata del suceso A condicionado por B, o lo que es lo mismo, la ocurrencia de A supuesto que ha ocurrido B. Este tipo de sucesos (condicionados) la representamos por A/B y su probabilidad puede ser calculada. Siguiendo con el ejemplo:

La tabla siguiente muestra los datos recogidos para 600 estudiantes

Nº horas estudioBajo

Nº horas estudioAlto

Total

Suspenso250 40 290

Aprobado50 260 310

Total 300 300 600

Page 6: Introducción a la Probabilidad

_____________________________________________________________________________________

6

Se puede calcular la probabilidad de cualquier suceso de la tabla anterior sin más que utilizar la fórmula de Laplace, como cociente entre los casos favorables a la ocurrencia del suceso de que se trate y los casos posibles o totales. De este modo tendríamos que:

P(A)=310/600 (probabilidad de haber aprobado)P(B)=300/600 (probabilidad de haber dedicado un número alto de horas la estudio)P(A∩B)=260/600 (probabilidad de haber aprobado y haber dedicado un número alto de horas al estudio)P(A/B)=260/300 (probabilidad de aprobar habiendo dedicado un número alto de horas al estudio). 3

DISTRIBUCIONES DE PROBABILIDAD

Las distribuciones de frecuencias que corresponden a experiencias reales, pueden ser comparadas con distribuciones teóricas de probabilidad (modelos de probabilidad conocidos), que son en realidad esquemas ideales del comportamiento de las variables. Resulta de gran interés la comparación de modelos ideales de comportamiento de las variables, con los datos que realmente se consiguen de ellas (las variables) en una investigación, ya que de este modo se puede intentar predecir la evolución de su comportamiento.

En los apartados siguientes vamos a presentar aquellos conceptos más básicos imprescindibles para introducir y comprender los modelos teóricos de probabilidad con los que se compararán los datos recogidos en una investigación.

VARIABLE ALEATORIA

Consideremos un experimento con espacio muestral asociado E. Una función X, que asigna un número real a cada resultado posible sobre el espacio E, recibe el nombre de variable aleatoria.

Suponga que se lanza una moneda al aire cuatro veces consecutivas y se anota el resultado. El espacio muestral asociado al experimento sería:

E=CaCaCaCa, CaCaCaCr, CaCaCrCa, CaCrCaCa, CrCaCaCa, CaCaCrCr, CaCrCaCr, CaCrCrCa, CrCaCaCr, CrCaCrCa, CrCrCaCa, CaCrCrCr, CrCaCrCr, CrCrCaCr, CrCrCrCa, CrCrCrCr

Se pueden definir diferentes variables aleatorias sobre el espacio muestral anterior. Por ejemplo, sea X la variable cuyos valores coinciden con el número de caras obtenidas en los cuatro lanzamientos, la variable así definida toma los valores siguientes:

3La probabilidad del suceso A/B se puede calcular también utilizando la expresión analítica correspondiente definida

anteriormente.

300

260

600/300

600/260

)B(P

)BA(P)B/A(P ==

∩=

Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de autoevalución ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS “Más para entender la probabilidad” (Ejercicio 2)

Page 7: Introducción a la Probabilidad

_____________________________________________________________________________________

7

Tabla 1E X

CaCaCaCa 4CaCaCaCrCaCaCrCaCaCrCaCaCrCaCaCa

3

CaCaCrCrCaCrCaCrCaCrCrCaCrCaCaCrCrCaCrCaCrCrCaCa

2

CaCrCrCrCrCaCrCr CrCrCaCr CrCrCrCa

1

CrCrCrCr 0

Si se considera un estudio en que tras una selección al azar de personas, se mide su estatura, su capacidad intelectual o su presión arterial, cada una de dichas características constituyen una variable aleatoria.

Una variable se dice discreta si puede tomar un número finito o infinito numerable de valores. Una variable se dice continua si puede tomar un número infinito no numerable de valores. En el primer caso se tiene un espacio muestral discreto, finito o infinito, y en el segundo caso se trata de un espacio muestral continuo.

Consideremos el experimento del lanzamiento cuatro veces consecutivas de una moneda (tabla 1), el espacio muestral asociado al mismo es un espacio discreto y la variable aleatoria definida anteriormente sobre dicho espacio, es una variable discreta.

Consideremos el experimento que consiste en lanzar una moneda al aire hasta que sale cara, su espacio muestral asociado es el siguiente (Amón, 19 ):

E=Cr, CrCa, CrCrCa, CrCrCrCa, CrCrCrCrCa, ............

Si se define sobre dicho espacio la variable X cuyos valores posibles son el número de caras vueltas hacia arriba en el experimento anterior, dicha variable puede tomar una cantidad infinita numerable de valores, es una variable discreta infinita y su espacio muestral asociado es un espacio discreto infinito.

Si consideramos el lanzamiento de un dardo a una diana, los resultados posibles, y elementos del espacio muestral asociado a dicho experimento, son infinitos y no hay forma de establecer una regla que nos permita enumerarlos, es un espacio muestral infinito y la variable aleatoria definida sobre él, sería continua.

Page 8: Introducción a la Probabilidad

_____________________________________________________________________________________

8

DISTRIBUCION DE PROBABILIDAD Y PARAMETROS DE UNA VARIABLE ALEATORIA DISCRETA

Ya se ha indicado que una variable aleatoria X tiene una distribución discreta si X sólo puede tomar un número finito k de valores o, a lo sumo, una sucesión infinita numerable de valores distintos. Si X tiene una distribución discreta, se pueden definir los siguientes tipos de funciones en X:

Función de probabilidad y distribución. Variable discretaFUNCION DE PROBABILIDADDada una variable aleatoria discreta X, su función de probabilidad es una función f que para cualquier número real x cumple:f(x)=P(X=x) para cualquier x que es un valor posible de Xf(x)=0 para cualquier x que no es valor posible de X

FUNCIÓN DE DISTRIBUCIONLa función de distribución F de una variable aleatoria X es una función definida para cada número real x, del modo siguiente:F(x) = P(X≤x) para -∞<x<∞

Las funciones de probabilidad y distribución así definidas, en realidad no son otra cosa que probabilidades de sucesos, es por ello que algunas de sus propiedades más importantes se deducen de forma inmediata de la axiomática probabilistica. Son de especial interés las propiedades siguientes:

Propiedades de las funciones de probabilidad y distribución

FUNCION DE PROBABILIDAD

1. Si X toma valores x1, x2, ... , xn, entonces ∑=

=

=ni

1ii 1)x(f

2. Si a<b<c, entonces P(a≤X≤c)=P(a≤X≤b)+P(b<X≤c)

FUNCION DE DISTRIBUCION1. F(x) es no decreciente a medida que x crece, es decir, x1<x2 ⇒ F(x1)≤F(x2).2. limx→-∞F(x)=0 y limx→∞F(x)=13. F(x) siempre es continua por la derecha, es decir, F(x)=F(x+) en todo punto x.4. P(a<x<b)=F(b) – F(a)

Parámetros que definen una variable aleatoria discreta

La media , esperanza matemática o valor esperado de una variable aleatoria discreta E[X]=∑ipixi

La mediana de una variable aleatoria discreta será el valor x en el que se cumple que F(x)=0,5

La moda en dicha variable será el valor de x en el que la función de probabilidad alcanza un máximo absoluto o relativoLa varianza de una variable aleatoria discreta es:

V(X)=E(X-µ)2

Page 9: Introducción a la Probabilidad

_____________________________________________________________________________________

9

VARIABLES ALEATORIAS CONTINUAS. DENSIDAD DE PROBABILIDAD Y PARAMETROS

Una variable aleatoria representa el conjunto de valores que se pueden observar en un fenómeno aleatorio (Ruiz-Maya, Martín, Montero y Uriz, 1995), valores que dependen del azar y sobre los cuales se puede definir una medida de probabilidad. La variable es continua cuando puede tomar los infinitos valores de un intervalo.

Se conoce como densidad al cociente entre la masa y el volumen de un sólido, es decir, el cociente entre dos magnitudes que se refieren a un mismo objeto. Cuando se realiza una medición y se obtiene un valor de puntuación para determinado sujeto, el significado del dato depende de la precisión de la medida. Más concretamente, si se obtiene una puntuación de 54 y la herramienta utilizada para realizar la medición sólo facilita valores enteros, si se trata de una variable continua, 54 está realmente representando a todo el intervalo 53,5 – 54,5. Si la precisión de la herramienta es del orden de las décimas, el valor 54,0 representa todo el intervalo contenido entre 53,95 y 54,05. En general, si la anchura de los intervalos a los que se refiere la medida utilizada es ∆, se puede definir la densidad de probabilidad del modo siguiente:

Funciones de densidad de probabilidad y distribución de una variable aleatoria continuaFUNCION DE DENSIDAD DE PROBABILIDADEl cociente entre la masa de probabilidad de un intervalo dado y su amplitud, se llama densidad de probabilidad. La función de densidad de una variable aleatoria X, es aquella función f que se obtiene como límite de la densidad de probabilidad, cuando el intervalo en que se define tiende a cero. La función de densidad así definida, tiene dos propiedades:

1. f(x) es una función no negativa.

2. ∫+∞

∞−

=1dx)x(f

La función de densidad permite el cálculo de probabilidades en un intervalo de valores

de la variable, así, P(a≤X≤b) = ∫b

a

dx)x(f

FUNCION DE DISTRIBUCIONLa función de distribución de una variable aleatoria continua X es aquella función F que asigna a cada valor x∈X la probabilidad de que la variable tome valores menores o iguales a x.

∫∞−

=≤=x

dx)x(f)xX(P)x(F

La función de distribución tiene las siguientes propiedades:

1. F(x) es una función monótona no decreciente2. Limx→-∞F(x) = 03. Limx→ ∞F(x) = 14. )a(F)b(F)aX(P)bX(P)bXa(P −=≤−≤=≤≤

Page 10: Introducción a la Probabilidad

_____________________________________________________________________________________

10

Según lo anterior, f(x), en el caso de una variable continua no es P(X=x), dado

que P(X=x) = P(x≤X≤x) = ∫x

x

dxxf )( = 0, sino que es una medida de cómo de probable

es un valor próximo a x, en un pequeño intervalo alrededor de x.

Parámetros de una variable aleatoria continuaLa media, esperanza matemática o valor esperado de una variable aleatoria continua se

define como E[X]= ∫+∞

∞−

dx)x(xf

La varianza de una variable aleatoria continua X, se define como:

[ ]∫+∞

∞−

−= dx)x(f)XEx()X(V 2

Las propiedades del valor esperado y varianza, siguen siendo las que se estudiaron en el caso de una variable aleatoria discreta.

Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de autoevalución ver LA CARPETA COMPLEMENTOS TEMAS PREVIOS “Más para entender la probabilidad” (Ejercicio 3)

MODELOS PROBABILÍSTICOS PARA UNA VARIABLE ALEATORIA

En este apartado vamos a tratar la maquinaria probabilística con la que se trata de dibujar o representar la realidad. Presentaremos aquellas distribuciones concretas que permiten representar situaciones con determinadas características, con la ventaja de que tienen un manejo fácil para el cálculo de probabilidades; siempre bajo el supuesto de que realmente las variables que manejamos pueden ser representadas por ellas. En realidad, no hablaremos de una distribución concreta sino de una familia de distribuciones, esto quiere decir que tienen en común: su representación expresada como modelo matemático, tienen la misma a muy similar, pero se diferencian en los valores de los parámetros que las caracterizan.

Habitualmente queremos saber cosas de una población que es para nosotros inaccesible. Dada una situación real deberemos elegir uno de los elementos de una familia de distribuciones, aquel que sea el mejor modelo representativo de la realidad que estamos estudiando. Una vez elegida la distribución a la que mejor se ajustan nuestros datos, ésta, permitirá que calculemos cualquier probabilidad relativa a los mismos, sólo tenemos que traducir lo que necesitamos conocer de la población, en un cálculo dentro de la distribución elegida (Llopis, 1996).

Aquí presentaremos algunas familias de distribuciones especiales que son muy utilizadas en aplicaciones. Se introducen la función de probabilidad y de distribución, así como algunas propiedades y aplicaciones de las distribuciones de Bernoulli, Binomial, Poisson, para el caso de variables aleatorias discretas y las familias de

Page 11: Introducción a la Probabilidad

_____________________________________________________________________________________

11

distribución Normal, Ji-cuadrado, t de Student y F de Fisher-Snedecor, para variables aleatorias continuas.

DISTRIBUCIONES DE PROBABILIDAD DISCRETAS UNIVARIANTES

Posiblemente, la familia de distribuciones discretas univariantes más sencilla, y que destaca por la cantidad de situaciones que representa, es la familia de distribuciones de Bernoulli. Las características principales de dicha familia son las siguientes:

Familia de distribuciones de Bernoulli DISTRIBUCION DE BERNOULLI Suponga un experimento en el que sólo hay dos posibles resultados, como cara o cruz, éxito o fracaso, presencia o ausencia, defectuoso o no defectuoso, que se pueden designar como 0 o 1.Una variable aleatoria X que toma los valores 1 y 0, con probabilidades p y q (1-p=q), y que representan cada uno de los dos posibles resultados del experimento aleatorio citado anteriormente, se dice que tiene una distribución de Bernoulli con parámetro p.

X→B(p)

Así, el lanzamiento de una moneda al aire es una prueba de Bernoulli, donde los dos resultados posibles son “salir cara” y “salir cruz”, y cuyas probabilidades de ocurrencia son p=1/2=q. La función de probabilidad de una variable de Bernoulli, tiene la forma siguiente:

f(x)=px.q1-x

La función de distribución de la variable X, tiene la forma siguiente:F(x)=P(X≤x)=∑xp

xq1-x

Los parámetros que definen esta familia de distribuciones son:• Esperanza matemática: E[X]=p • Varianza de X Var(X)=p.q

Hay muchas situaciones en las que se manejan variables para las que sólo son posibles dos resultados. Es decir, si se estudian sujetos que son varones o mujeres en un estudio sociológico, que poseen o no determinado trastorno, que presentan o no movimientos oculares rápidos en un experimento sobre el sueño, dichas variables tienen un comportamiento que puede ser modelizado por una distribución Bernoulli. Habitualmente, cuando se manejan proporciones de individuos que poseen cierta característica dicotómica, es decir, con dos valores posibles, se consideran más de una prueba de Bernoulli, lo que significa la utilización del modelo de probabilidad Binomial, que introducimos seguidamente.

Distribución BinomialDISTRIBUCION BINOMIALSupongamos que se realizan n pruebas independientes de Bernoulli en las que la probabilidad de éxito, p, se mantiene constante. Es decir, considere la variable X definida como el número de éxitos en las n pruebas de Bernoulli, X=X1+...+Xn. La variable así definida sigue una distribución binomial de parámetros n y p.

X→B(n,p)

Page 12: Introducción a la Probabilidad

_____________________________________________________________________________________

12

La función de probabilidad de una variable binomial, tiene la forma siguiente:f(x)=Cn,xp

xqn-x

La función de distribución de una variable binomial, se calcula a partir de la función de probabilidad, como sigue:

F(k)=P(X≤k)=∑x≤kCn,xpxqn-x

Las que definen esta distribución son:• Valor esperado: E[X]=np • Varianza de la variable X, V(X)=npq

Si se manejan variables Binomiales en que la probabilidad de éxito es muy pequeña, y el número de pruebas n, es muy grande, el modelo de probabilidad que permite estudiar el comportamiento de dichas variables es el modelo de Poisson o ley de los sucesos raros. En estos casos, se ha de seleccionar un elemento de la familia de distribuciones de Poisson, cuyas características se presentan a continuación.

Familia de distribuciones de Poisson

DISTRIBUCION DE POISSON

Una variable aleatoria X, que tiene una distribución binomial con parámetros n y p, en la que n→∞ y p→0, es decir, en la que n es muy grande y p muy pequeña, se dice que tiene una distribución de Poisson de parámetro λ=np.

X→P(λ)La función de probabilidad de una variable que sigue una ley de Poisson de parámetro λ, tiene la forma siguiente:

!)(

x

exf

xλλ−

=

La función de distribución de una variable de Poisson, se obtiene como se indica seguidamente:

∑≤

=kx

x

x

ekF

!)(

λλ

Los parámetros y para la variable X: • Esperanza matemática E[X]=λ• Varianza V(X)=λ

DISTRIBUCIONES DE PROBABILIDAD CONTINUAS UNIVARIANTES

Muchas situaciones reales están caracterizadas porque en ellas se manejan variables continuas. Las distribuciones que se presentan en este apartado son modelos para utilizar en el cálculo de probabilidades en estos casos.

En primer lugar se estudia la distribución Normal, la distribución más importante en Estadística. Esto es así por las propiedades matemáticas que tiene. Así, si se selecciona una muestra de una distribución Normal, estaremos en las condiciones de aplicación de casi todas las técnicas de Inferencia Estadística; además se ha observado con frecuencia en diferentes experimentos que las variables que se manejan tienen

Page 13: Introducción a la Probabilidad

_____________________________________________________________________________________

13

distribuciones aproximadamente Normales; veremos que cuando se selecciona unamuestra grande, aunque su distribución no sea Normal, en el límite, lo es.

Familia de distribuciones Normales

DISTRIBUCION NORMALUna variable continua X sigue una distribución ),(N 2σµ , una distribución Normal con

media µ y varianza σ2, si su función de densidad de probabilidad es la siguiente:

∞<<∞−σπ

=

σµ−

xparae2

1()f

2x

2

1

Propiedades:- La distribución Normal es simétrica respecto al punto x=µ- Alcanza su máximo en x=µ- Tiene dos puntos de inflexión en x=µ+σ y x=µ-σ- Tiene forma de campana- Si una variable aleatoria X tiene una distribución Normal, cualquier combinación de

X tiene una distribución Normal

DISTRIBUCIÓN NORMAL TIPIFICADA

S X→ ),(N 2σµ y se realiza una tipificación de la variable, la variable σ

µ−=

XZ sigue

una distribución tipificada, es decir, Z→N(0,1)Si las variables aleatorias X1, ..., Xk son independientes y cada Xi→ ),(N 2

ii σµ la suma

X1+...+Xk sigue una distribución Normal con media µ1+µ2+...+µk y varianza σ1

2+σ22+...+σk

2

Hemos de hacer notar lo siguiente, en ocasiones no se dispone de la tabulación completa de los modelos de probabilidad expuestos hasta el momento o, sencillamente, se trabaja de forma más cómoda con unos modelos que con otros. Esto es posible si se dan las condiciones que posibilitan tal acción, algunas de las cuales son:

Aproximación entre distribuciones de probabilidadDISTRIBUCION BINOMIAL, POISSON Y NORMAL

℘(λ) (a) n.p=λ n≥20 p≤0,01(a)

B(n,p) (c) (b) n.p>5

(b) ),(N 2σµ (c) λ>10 µ = σ2 = λ

Page 14: Introducción a la Probabilidad

_____________________________________________________________________________________

14

También resulta conveniente conocer algunos modelos de probabilidad que resultan como combinación de variables normales, o de otras distribuciones de probabilidad.

A continuación se introducen tres familias de distribuciones que cumplen con todas las condiciones que se reflejaron al inicio de este apartado, son modelos para variables aleatorias continuas. No obstante, las vamos a presentar como modelos algo distintos a los anteriores. Se trata de distribuciones derivadas de la Normal, es decir, son variables que resultan de realizar ciertas operaciones entre variables Normales.

Estos tres modelos tienen un papel destacado en Inferencia Estadística, más concretamente, en el proceso de muestreo.

Distribuciones asociadas al proceso de muestreo.

DISTRIBUCIÓN Ji-Cuadrado

Una variable continua X sigue una distribución Ji-Cuadrado con n grados de libertad, y se nota 2

nχ si se obtiene del modo siguiente:2nX χ→ si )1,0(NZ.q.tZ...ZZX i

2n

22

21 →+++=

Sus parámetros son:[ ] nXE = y ( ) n2XV =

DISTRIBUCIÓN t-Student

Una variable continua X sigue una distribución t con n grados de libertad, y se nota tn, si se obtiene del modo siguiente:

X → tn si )1,0(NZyW.q.t

n

W

ZX 2

n →χ→=

Sus parámetros son:

E[tn]=0 y ( )2n

ntV n −

=

DISTRIBUCIÓN F DE FISHER-SNÉDECOR

Una variable continua X sigue una distribución F, con n1 y n2 grados de libertad, y se nota

21 n,nF , si se obtiene del modo siguiente:

X →21 n,nF si 2

ni

2

2

1

1

iW.q.t

nW

nW

X χ→=

Sus parámetros son:

[ ]2n

nXE

2

2

−= y ( )

2221

2122

)2n)(4n(n

)2nn(n2XV

−−−+

=

Para una mejor comprensión de estos conceptos, aplicación práctica y ejercicios de autoevalución ver el archivo CARPETA COMPLEMENTOS TEMAS PREVIOS “Más para entender la probabilidad” (Ejercicio 4)

Page 15: Introducción a la Probabilidad

_____________________________________________________________________________________

15

Page 16: Introducción a la Probabilidad

_____________________________________________________________________________________

16