Probabilidad y estadistica
-
Upload
madeline-cedeno -
Category
Education
-
view
131 -
download
3
description
Transcript of Probabilidad y estadistica
República Bolivariana de VenezuelaMinisterio del Poder Popular Para la defensa
Universidad Nacional Experimental de la Fuerza ArmadaNúcleo Miranda
Extensión Ocumare del TuyC.B.I 301Nocturno
PROBABILIDADES Y ESTADISTICA
PROFESORA: BACHILLERES:
Obdulio Pérez Luis
Rodríguez
C.I 20.674.663
Kleber Colmenares
C.I 20.976.627
Ocumare del Tuy Mayo 2014
INTRODUCCION
El concepto de probabilidad nace con el deseo del hombre de conocer con
certeza los eventos futuros. Es por ello que el estudio de probabilidades surge
como una herramienta utilizada por los nobles para ganar en los juegos y
pasatiempos de la época. El desarrollo de estas herramientas fue asignado a
los matemáticos de la corte. Con el tiempo estas técnicas matemáticas se
perfeccionaron y encontraron otros usos muy diferentes para la que fueron
creadas. Actualmente se continuó con el estudio de nuevas metodologías que
permitan maximizar el uso de la computación en el estudio de las probabilidades
disminuyendo, de este modo, los márgenes de error en los cálculos. El ejemplo
Más sencillo y cotidiano de un experimento aleatorio es el de lanzar una moneda
o un dado, y aunque estos experimentos pueden parecer muy sencillos, algunas
personas los utilizan para tomar decisiones en sus vidas. En principio no sabemos
cuál será el resultado del experimento aleatorio, así que por lo menos conviene
agrupar en un conjunto a todos los resultados posibles. A continuación más
adelante se explican conceptos y formulaciones básicas dentro del ámbito de la
probabilidad y estadística.
DESIGUALDAD DE CHEBYSHEV
Es uno de los resultados más importantes e interesantes en la teoría de la
probabilidad. Este resultado establece que si X es una variable aleatoria y E(X) es
la esperanza de, la cual existe, entonces
Para todo donde V(X) es la varianza de la variable aleatoria X.
La demostración de esta desigualdad se basa en la desigualdad de Markov, la
cual dice lo siguiente: Si es una variable aleatoria, entonces
Para todo y todo entero positivo .
La estimación que la desigualdad de Chebyshev da a la probabilidad del evento
; puede ser muy buena. Esta probabilidad generalmente es
menor que
Y en consecuencia este valor es una buena sobre estimación de
.
Una de las aplicaciones principales de las desigualdades de tipo Chebyshev es el
de aproximar o estimar probabilidades de la forma por
medio de cálculo de cotas.
Es conocido en la literatura, que si conocemos la función de distribución de la
variable aleatoria X, podemos calcular su esperanza E(X) y su varianza V(X), si
estas existen.
De igual modo si conocemos dos variables aleatorias X, Y con su función de
distribución conjunta, podemos calcular E (XY), E(X), E (Y) y su matriz de
covarianzas . Pero el problema reciproco no es cierto, es decir si
conocemos E(X) y V(X), no necesariamente, se puede construir la función de
distribución de la variable aleatoria X y por consiguiente
Son muy difíciles de obtener. Igualmente para el caso de funciones de
distribuciones conjuntas de dos variables aleatorias.
En este artículo vamos a desarrollar principalmente la desigualdad de Chebyshev
bidimensional, la cual no es muy conocida en la literatura de la probabilidad,
además es muy conveniente, ya que en ocasiones la estimación del valor real de
una probabilidad conjunta, suele dar información insuficiente para nuestro
objetivo, como por ejemplo, lado derecho de la desigualdad mayor o igual a uno.
En este sentido podemos decir que entre más pequeño sea el lado derecho de la
desigualdad más precisa es la información de las probabilidades
Además del resultado la desigualdad de Chebyshev bidimensional vamos a
presentar otros resultaos interesantes que son consecuencia de la desigualdad
de Chebyshev.
LEY DE LOS GRANDES NÚMEROS
En la teoría de la probabilidad, bajo el término genérico de La ley de los grandes
números se engloban varios teoremas que escriben el comportamiento
del promedio de una sucesión de variables aleatorias conforme aumenta su
número de ensayos. Estos teoremas prescriben condiciones suficientes para
garantizar que dicho promedio converge (en los sentidos explicados abajo) al
promedio de las esperanzas de las variables aleatorias involucradas. Las distintas
formulaciones de la ley de los grandes números (y sus condiciones asociadas)
especifican la convergencia de formas distintas. Las leyes de los grandes números
explican por qué el promedio de una muestra al azar de una población de gran
tamaño tenderá a estar cerca de la media de la población completa. Cuando las
variables aleatorias tienen una varianza finita, el teorema central del
límite extiende nuestro entendimiento de la convergencia de su promedio
describiendo la distribución de diferencias estandarizadas entre la suma de
variables aleatorias y el valor esperado de esta suma: sin importar la distribución
subyacente de las variables aleatorias, esta diferencia estandarizada converge a
una variable aleatoria normal estándar.
La frase "ley de los grandes números" es también usada ocasionalmente para
referirse al principio de que la probabilidad de que cualquier evento posible
(incluso uno improbable) ocurra al menos una vez en una serie, incrementa con
el número de eventos en la serie. Por ejemplo, la probabilidad de que un
individuo gane la lotería es bastante baja; sin embargo, la probabilidad de
que alguien gane la lotería es bastante alta, suponiendo que suficientes personas
comprasen boletos de lotería.
La ley débil de los grandes números establece que si X1, X2, X3,... es una sucesión
infinita de variables aleatorias independientes que tienen el mismo valor
esperado μ y varianza Entonces el promedio
Converge en probabilidad a μ. En otras palabras, para cualquier número positivo
ε se tiene
La ley fuerte de los grandes números establece que si X1, X2, X3,... es una
sucesión infinita de variables aleatorias independientes e idénticamente
distribuidas que cumplen E (|Xi|) < ∞ y tienen el valor esperado μ, entonces
Es decir, el promedio de las variables aleatorias converge a μ casi
seguramente (en un conjunto de probabilidad 1).
Esta ley justifica la interpretación intuitiva de que el valor esperado de una
variable aleatoria como el "promedio a largo plazo al hacer un muestreo
repetitivo".
TEOREMA CENTRAL DEL LÍMITE
Dice que si tenemos un grupo numeroso de variables independientes y todas
ellas siguen el mismo modelo de distribución (cualquiera que éste sea), la suma
de ellas se distribuye según una distribución normal.
Ejemplo: la variable "tirar una moneda al aire" sigue la distribución de Bernoulli.
Si lanzamos la moneda al aire 50 veces, la suma de estas 50 variables (cada una
independiente entre sí) se distribuye según una distribución normal.
Este teorema se aplica tanto a suma de variables discretas como de variables
continuas.
Los parámetros de la distribución normal son:
Media: n * m (media de la variable individual multiplicada por el número de
variables independientes)
Varianza: n * s2 (varianza de la variable individual multiplicada por el número de
variables individuales)
Veamos un ejemplo:
Se lanza una moneda al aire 100 veces, si sale cara le damos el valor 1 y si sale
cruz el valor 0. Cada lanzamiento es una variable independiente que se distribuye
según el modelo de Bernoulli, con media 0,5 y varianza 0,25. Calcular la
probabilidad de que en estos 100 lanzamientos salga más de 60 caras.
La variable suma de estas 100 variables independientes se distribuye, por tanto,
según una distribución normal.
Media = 100 * 0,5 = 50
Varianza = 100 * 0,25 = 25
Para ver la probabilidad de que salgan más de 60 caras calculamos la variable
normal tipificada equivalente:
(*) 5 es la raíz cuadrada de 25, o sea la desviación típica de esta distribución
Por lo tanto:
P (X > 60) = P (Y > 2,0) = 1- P (Y < 2,0) = 1 - 0,9772 = 0,0228
Es decir, la probabilidad de que al tirar 100 veces la moneda salga más de 60
caras es tan sólo del 2,28%
ESTADISTICA
La Estadística es la parte de las Matemáticas que se encarga del estudio de una
determinada característica en una población, recogiendo los datos,
organizándolos en tablas, representándolos gráficamente y analizándolos para
sacar conclusiones de dicha población. Según se haga el estudio sobre todos los
elementos de la población o sobre un grupo de ella, vamos a diferenciar dos
tipos de Estadística: Estadística descriptiva. Realiza el estudio sobre la población
completa, observando una característica de la misma y calculando unos
parámetros que den información global de toda la población. Estadística
inferencial. Realiza el estudio descriptivo sobre un subconjunto de la población
llamado muestra y, posteriormente, extiende los resultados obtenidos a toda la
población.
EJEMPLO. Cuando van a llegar cualquier tipo de elecciones, por ejemplo, las
elecciones generales, es muy frecuente que los medios de comunicación, nos
adelanten los resultados de encuestas o sondeos en los que se nos indica el
resultado final de dichas elecciones con una precisión y con un error
determinado. Estos sondeos son realizados por distintas técnicas sobre un grupo
(muestra) más o menos numeroso de personas. Naturalmente, cuánto mayor sea
el número de españoles con derecho a voto encuestados, mayor será la fiabilidad
de la encuesta, pero también mayor será el coste del sondeo. el estudio de esta
muestra se haría mediante estadística descriptiva, pero lo que nos interesa no es
el resultado de este estudio reducido sino el resultado final de las elecciones. el
paso de generalizar los resultados de la muestra a toda la población, se hace
mediante técnicas de estadística inferencial. la elección de la muestra debe
hacerse mediante métodos de muestreo para que el estudio resulte lo más fiable
posible.
POBLACIÓN Y MUESTRA
El concepto de población en estadística va más allá de lo que comúnmente se
conoce como tal. Una población se precisa como un conjunto finito o infinito de
personas u objetos que presentan características comunes.
Destacamos algunas definiciones:
"Una población es un conjunto de todos los elementos que estamos estudiando,
acerca de los cuales intentamos sacar conclusiones". Levin & Rubin (1996).
"Una población es un conjunto de elementos que presentan una característica
común". Cadenas (1974).
El tamaño que tiene una población es un factor de suma importancia en el
proceso de investigación estadística y en nuestro caso social, y este tamaño
vienen dados por el número de elementos que constituyen la población, según el
número de elementos la población puede ser finita o infinita. Cuando el número
de elementos que integra la población es muy grande, se puede considerar a
esta como una población infinita, por ejemplo; el conjunto de todos los números
positivos.
Una población finita es aquella que está formada por un limitado número de
elementos, por ejemplo; el número de habitantes de una comarca.
Cuando la población es muy grande, es obvio que la observación y/o medición de
todos los elementos se multiplica la complejidad, en cuanto al trabajo, tiempo y
costos necesarios para hacerlo. Para solucionar este inconveniente se utiliza una
muestra estadística.
Es a menudo imposible o poco práctico observar la totalidad de los individuos,
sobre todos si estos son muchos. En lugar de examinar el grupo entero llamado
población o universo, se examina una pequeña parte del grupo denominada
muestra.
MUESTRA
La muestra es una representación significativa de las características de una
población, que bajo, la asunción de un error (generalmente no superior al 5%)
estudiamos las características de un conjunto poblacional mucho menor que la
población global.
"Se llama muestra a una parte de la población a estudiar que sirve para
representarla". Murria R. Spiegel (1991).
"Una muestra es una colección de algunos elementos de la población, pero no de
todos". Levin & Rubin (1996).
"Una muestra debe ser definida en base de la población determinada, y las
conclusiones que se obtengan de dicha muestra solo podrán referirse a la
población en referencia", Cadenas (1974).
Por ejemplo estudiamos los valores sociales de una población de 5000 habitantes
aprox., entendemos que sería de gran dificultad poder analizar los valores
sociales de todos ellos, por ello, la estadística nos dota de una herramienta que
es la muestra para extraer un conjunto de población que represente a la
globalidad y sobre la muestra realizar el estudio. Una muestra representativa
contiene las características relevantes de la población en las mismas
proporciones que están incluidas en tal población.
Los expertos en estadística recogen datos de una muestra. Utilizan esta
información para hacer referencias sobre la población que está representada por
la muestra. En consecuencia muestra y población son conceptos relativos. Una
población es un todo y una muestra es una fracción o segmento de ese todo.
TÉCNICAS DE MUESTREO
Esto no es más que el procedimiento empleado para obtener una o más
muestras de una población; el muestreo es una técnica que sirve para obtener
una o más muestras de población. Este se realiza una vez que se ha establecido
un marco muestral representativo de la población, se procede a la selección de
los elementos de la muestra aunque hay muchos diseños de la muestra. Al tomar
varias muestras de una población, las estadísticas que calculamos para cada
muestra no necesariamente serían iguales, y lo más probable es que variaran de
una muestra a otra.
TIPOS DE MUESTREO
Existen dos métodos para seleccionar muestras de poblaciones; el muestreo no
aleatorio o de juicio y el muestreo aleatorio o de probabilidad. En este último
todos los elementos de la población tienen la oportunidad de ser escogidos en la
muestra. Una muestra seleccionada por muestreo de juicio se basa en la
experiencia de alguien con la población. Algunas veces una muestra de juicio se
usa como guía o muestra tentativa para decidir cómo tomar una muestra
aleatoria más adelante. Las muestras de juicio evitan el análisis estadístico
necesario para hacer muestras de probabilidad.
DISTRIBUCIONES DE FRECUENCIAS
La distribución de frecuencia es una disposición tabular de datos estadísticos,
ordenados ascendente o descendentemente, de acuerdo a la frecuencia de cada
dato. Las frecuencias pueden ser:
Frecuencia absoluta (f¡): Es el número de veces que se repite un determinado
valor de la variable (xi). Se designa por fi.
PROPIEDAD: la suma de todas las frecuencias absolutas es igual al total de
observaciones (n).
frecuencia acumulada (F¡): Las frecuencias acumuladas de una distribución de
frecuencias son aquellas que se obtienen de las sumas sucesivas de las fi que
integran cada una de las filas de una distribución de frecuencia, esto se logra
cuando la acumulación de las frecuencias se realiza tomando en cuenta la
primera fila hasta alcanzar la última. Las frecuencias acumuladas se designan con
las letras F¡. Se calcula:
PROPIEDAD: La última frecuencia acumulada absoluta es igual al total de
observaciones.
Frecuencia relativa (hi): Es aquella que resulta de dividir cada una de las
frecuencias absolutas entre el número total de datos. Las frecuencias relativas
se designan con las letras hi. Se calcula
PROPIEDAD: la suma de todas las frecuencias relativas es igual a la unidad.
Frecuencia relativa acumulada (Hi): Es aquella que resulta de dividir cada una de
las frecuencias acumuladas entre número total de datos. Se designa con las
letras Hi. Se calcula;
PROPIEDAD: La última frecuencia relativa acumulada es la unidad.
DISTRIBUCION DE FRECUENCIAS ABSOLUTAS
Es la representación estructurada en forma de tabla de toda la información que
se ha recogido sobre la variable que se estudia, es decir, es una tabla que
presenta de manera ordenada los distintos valores de una variable y sus
correspondientes frecuencias.
DISTRIBUCIONES DE FRECUENCIAS AGRUPADAS
Es aquella distribución en la que la disposición tabular de los datos estadísticos
se encuentra ordenada en clases y con la frecuencia en cada clase; es decir, los
datos originales de varios valores adyacentes del conjunto se combinan para
formar un intervalo de clase. No existen normas establecidas para determinar
cuándo es apropiado utilizar datos agrupados o datos no agrupados; sin
embargo, se sugiere que cuando el número total de datos (N) es igual o superior
50 y además el rango o recorrido de la serie de datos es mayor de 20, entonces,
se utilizará la distribución de frecuencia para datos agrupados, también se
utilizará este tipo de distribución cuando se requiera elaborar gráficos lineales
como el histograma, el polígono de frecuencia o la ojiva.
La razón fundamental para utilizar la distribución de frecuencia de clases es
proporcionar mejor comunicación acerca del patrón establecido en los datos y
facilitar la manipulación de los mismos. Los datos se agrupan en clases con el fin
de sintetizar, resumir, condensar o hacer que la información obtenida de una
investigación sea manejable con mayor facilidad.
Al agrupar los datos en una distribución de frecuencia de clase se pierde parte
de la información. La reducción o agrupamiento a que son sometidos los datos
de una serie de valores cuando existen muchos valores diferentes, originan los
denominados errores de agrupamiento; sin embargo, estos errores son en
general muy pequeños, razón por la cual la distribución de frecuencia de clase
tiene una validez estadística práctica.
Para agrupar los datos en intervalos de clase se deben seguir las siguientes
reglas generales:
• El número de intervalos de clase se toma entre 5 y 15 dependiendo de los
datos.
• Cada observación debe estar incluida en una y solo una clase o intervalo.
• El valor más pequeño y más grande deben entrar en la clasificación.
• No deben existir brechas o vacíos entre clases sucesivas.
• Los intervalos no se deben sobreponer.
• En la medida de lo posible, se debe utilizar la misma amplitud para todos los
intervalos.
PROCEDIMIENTO PARA CONSTRUIR UNA DISTRIBUCIÓN DE FRECUENCIAS
AGRUPADA EN INTERVALOS
1. Determinar el máximo y mínimo entre los valores que tenemos en la
muestra y calcular el recorrido de la variable o rango, es decir,
R=Xmax-Xmin
2. Calcular el número de clases a utilizar. Existen diversos criterios para
determinar el número de clases, ante tanta diversidad de criterios, se ha
considerado que lo más importante es dar un ancho o longitud de clases
a todos los intervalos de tal manera que respondan a la naturaleza de los
datos y al objetivo que se persigue y esto se logra con la práctica.
Existe una forma para determinar el número de clases y la misma puede
ilustrarse en el siguiente cuadro:
Numero de Datos Número de Intervalos
10 – 100 De 4 a 8
100 - 1.000 De 8 a 11
1.000 - 10.000 De 11 a 14
Cuando se tenga dudas en determinar el número de intervalos de clases, es de
gran utilidad utilizar el método sugerido por Hebert A. Sturges, el cual establece
que: K= 1+3,322 log(n) = número de intervalos. En este curso se utilizará este
método siempre y cuando el mismo sea aplicable.
3. Determinamos la amplitud o tamaño de los intervalos través de la
siguiente formula:
ESTADÍSTICO Y PARÁMETRO:
Estadístico: valor numérico que describe una característica de la muestra y se
obtiene mediante la manipulación algebraica de sus datos. (Pardo Merino)
Ejemplo: Suponga se tomó una muestra representativa de los estudiantes
regulares de la Universidad de los Andes. Para esta muestra se calculó: edad
promedio, rendimiento promedio, porcentaje de estudiantes que fuman.
Parámetro: valor numérico que describe una característica de la población
(Pardo Merino). Los parámetros se estiman a partir de la información aportada
por una muestra de la población.
Ejemplo: Si se considera como universo a todos los estudiantes regulares de la
Universidad de Los Andes, la edad promedio de estos, el porcentaje de
estudiantes de sexo femenino que fuman, el ingreso medio todos los
estudiantes, son valores que describen a este conjunto.
MEDIDAS DE DISPERSIÓN - VARIANZA Y DESVIACIÓN
Así como las medidas de tendencia central nos permiten identificar el punto
central de los datos, las Medidas de dispersión nos permiten reconocer que
tanto se dispersan los datos alrededor del punto central; es decir, nos indican
cuanto se desvían las observaciones alrededor de su promedio aritmético
(Media). Este tipo de medidas son parámetros informativos que nos permiten
conocer como los valores de los datos se reparten a través de eje X, mediante
un valor numérico que representa el promedio de dispersión de los datos. Las
medidas de dispersión más importantes y las más utilizadas son la Varianza y
la Desviación estándar (o Típica).
VARIANZA
Esta medida nos permite identificar la diferencia promedio que hay entre cada
uno de los valores respecto a su punto central (Media ). Este promedio es
calculado, elevando cada una de las diferencias al cuadrado (Con el fin de
eliminar los signos negativos), y calculando su promedio o media; es decir,
sumado todos los cuadrados de las diferencias de cada valor respecto a la media
y dividiendo este resultado por el número de observaciones que se tengan. Si la
varianza es calculada a una población (Total de componentes de un conjunto), la
ecuación sería:
Donde ( ) representa la varianza, (Xi) representa cada uno de los
valores, ( ) representa la media poblacional y (N) es el número de
observaciones ó tamaño de la población. En el caso que estemos
trabajando con una muestra la ecuación que se debe emplear es:
Donde (S2) representa la varianza, (Xi) representa cada uno de los valores, ( )
representa la media de la muestra y (n) es el número de observaciones ó tamaño
de la muestra. Si nos fijamos en la ecuación, notaremos que se le resta uno al
tamaño de la muestra; esto se hace con el objetivo de aplicar una pequeña
medida de corrección a la varianza, intentando hacerla más representativa para
la población. Es necesario resaltar que la varianza nos da como resultado el
promedio de la desviación, pero este valor se encuentra elevado al cuadrado.
DESVIACIÓN ESTÁNDAR O TÍPICA
Esta medida nos permite determinar el promedio aritmético de fluctuación de
los datos respecto a su punto central o media. La desviación estándar nos da
como resultado un valor numérico que representa el promedio de diferencia que
hay entre los datos y la media. Para calcular la desviación estándar basta con
hallar la raíz cuadrada de la varianza, por lo tanto su ecuación sería:
Para comprender el concepto de las medidas de distribución vamos a suponer
que el gerente de una empresa de alimentos desea saber que tanto varían los
pesos de los empaques (en gramos), de uno de sus productos; por lo que opta
por seleccionar al azar cinco unidades de ellos para pesarlos. Los productos
tienen los siguientes pesos (490, 500, 510, 515 y 520) gramos respectivamente.
Por lo que su media es:
La varianza sería:
Por lo tanto la desviación estándar sería:
Con lo que concluiríamos que el peso promedio de los empaques es de 507
gramos, con una tendencia a variar por debajo o por encima de dicho peso en 12
gramos. Esta información le permite al gerente determinar cuánto es el promedio
de perdidas causado por el exceso de peso en los empaques y le da las bases
para tomar los correctivos necesarios en el proceso de empacado.
CONCLUSIÓN
Con todo lo aprendido, podemos concluir que la probabilidad y la estadística son
ramas de la matemática que no se encuentran muy visible en lo cotidiano pero
que en realidad es de mucha utilidad para interpretar y ver desde un punto de
vista muy general datos que se obtienen. A través de sus gráficas, medidas de
tendencia central y de dispersión podemos ver más claro y concreto un conjunto
de datos que se nos hacen muy complicados, en resumen son un verdadero
método de ayuda para informar.