Post on 06-Apr-2016
description
Importancia de las distribuciones de
probabilidades
Teorema de probabilidades total
Variables aletorias
Distribución binominal
Muestra aleatorias
Distribuciones de probabilidades
EDICION UNICA
Contenido Editorial
Distribuciones de Probabilidades
Distribución Binominal
Distribución Poisson
Distribución Normal
Muestra Aleatoria
Variables Aleatorias
Teorema de Probabilidades Total
Teorema de Bayes
Importancia del uso de las Probabilidades
EDITOR
José Daniel Maldonado Gutiérrez
DIRECCIÓN
INSTITUTO UNIVERSITARIO POLITÉCNICO SANTIAGO
MARIÑO
Bienvenidos a esta edición única, una revista digital que te trae las
mejores informaciones acerca de la estadística.
La estadística es la parte de las matemáticas que se ocupa de los
métodos para recoger, organizar, resumir y analizar datos, así como
para sacar conclusiones válidas y tomar decisiones razonables
basadas en tal análisis.
Podemos decir que la función principal de la estadística es
justamente la recolección y agrupamiento de datos de diverso tipo
para construir con ellos informes estadísticos que nos den idea
sobre diferentes y muy variados temas, siempre desde un punto de
vista cuantitativo y no cualitativo
Espero que en Learn Statistics puedas encontrar la mejor
información acerca de estadísticas
DISTRIBUCIONES DE
PROBABILIDADES
En teoría de la probabilidad y estadística, la distribución de
probabilidad de una variable aleatoria es una función que asigna a cada
suceso definido sobre la variable aleatoria, la probabilidad de que dicho
suceso ocurra. La distribución de probabilidad está definida sobre el
conjunto de todos los sucesos, cada uno de los sucesos es el rango de
valores de la variable aleatoria.
La distribución de probabilidad está completamente especificada por la
función de distribución, cuyo valor en cada x real es la probabilidad de
que la variable aleatoria sea menor o igual que x.
DISTRIBUCIÓN BINOMINAL
Es una distribución de probabilidad discreta que cuenta el número de
éxitos en una secuencia de n ensayos de Bernoulli independientes entre
sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es,
sólo son posibles dos resultados. A uno de estos se denomina éxito y
tiene una probabilidad de ocurrencia p y al otro, fracaso, con una
probabilidad q = 1 - p. En la distribución binomial el anterior
experimento se repite n veces, de forma independiente, y se trata de
calcular la probabilidad de un determinado número de éxitos. Para n =
1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Experimento binomial
Existen muchas situaciones en las que se presenta una experiencia
binomial. Cada uno de los experimentos es independiente de los
restantes (la probabilidad del resultado de un experimento no depende
del resultado del resto). El resultado de cada experimento ha de admitir
sólo dos categorías (a las que se denomina éxito y fracaso). Las
probabilidades de ambas posibilidades han de ser constantes en todos
los experimentos (se denotan como p y q o p y 1-p).
Se designa por X a la variable que mide el número de éxitos que se han
producido en los n experimentos.
DISTRIBUCIÓN POISSON
Esta distribución es una de las más importantes distribuciones de
variable discreta. Sus principales aplicaciones hacen referencia a la
modelización de situaciones en las que nos interesa determinar el
número de hechos de cierto tipo que se pueden producir en un intervalo
de tiempo o de espacio, bajo presupuestos de aleatoriedad y ciertas
circunstancias restrictivas. Otro de sus usos frecuentes es la
consideración límite de procesos dicotómicos reiterados un gran
número de veces si la probabilidad de obtener un éxito es muy pequeña.
Esta distribución se puede hacer derivar de un proceso experimental de
observación en el que tengamos las siguientes características
Se observa la realización de hechos de cierto tipo durante un cierto
periodo de tiempo o a lo largo de un espacio de observación
Los hechos a observar tienen naturaleza aleatoria ; pueden
producirse o no de una manera no determinística.
La probabilidad de que se produzcan un número x de éxitos en un
intervalo de amplitud no depende del origen del intervalo
(Aunque, sí de su amplitud)
La probabilidad de que ocurra un hecho en un intervalo
infinitésimo es prácticamente proporcional a la amplitud del
intervalo.
La probabilidad de que se produzcan 2 o más hechos en un
intervalo infinitésimo es un infinitésimo de orden superior a dos.
En consecuencia, en un intervalo infinitésimo podrán producirse O ó 1
hecho pero nunca más de uno.
DISTRIBUCIÓN NORMAL
Se llama distribución normal, distribución de Gauss o distribución
gaussiana, a una de las distribuciones de probabilidad de variable continua
que con más frecuencia aparece aproximada en fenómenos reales.
La importancia de esta distribución radica en que permite modelar
numerosos fenómenos naturales, sociales y psicológicos. Mientras que los
mecanismos que subyacen a gran parte de este tipo de fenómenos son
desconocidos, por la enorme cantidad de variables incontrolables que en
ellos intervienen, el uso del modelo normal puede justificarse asumiendo
que cada observación se obtiene como la suma de unas pocas causas
independientes; De hecho, la estadística descriptiva sólo permite describir
un fenómeno, sin explicación alguna. Para la explicación causal es preciso
el diseño experimental, de ahí que al uso de la estadística en psicología y
sociología sea conocido como método correlacional.
La distribución normal también es importante por su relación con la
estimación por mínimos cuadrados, uno de los métodos de estimación más
simples y antiguos. La distribución normal también aparece en muchas
áreas de la propia estadística. Por ejemplo, la distribución muestral de las
medias muéstrales es aproximadamente normal, cuando la distribución de
la población de la cual se extrae la muestra no es normal.1 Además, la
distribución normal maximiza la entropía entre todas las distribuciones con
media y varianza conocidas, lo cual la convierte en la elección natural de la
distribución subyacente a una lista de datos resumidos en términos de
media muestral y varianza. La distribución normal es la más extendida en
estadística y muchos tests estadísticos están basados en una supuesta
"normalidad".
MUESTRA ALEATORIA
En estadística, una muestra es la selección de un numero de observaciones
de a partir de una población objeto de investigación; una muestra aleatoria
es cuando la elección sigue un método impredecible. El muestreo aleatorio
puede referirse también a tomar una serie de observaciones independientes
de la misma distribución de probabilidad. Las muestras nos permiten
mediante la inferencia estadística representar los resultados de la población
de donde haya extraído, pero existiendo una potencial variación al azar en
los resultados que se denomina error de muestreo. En el caso de muestras
aleatorias, la estadística dispone de medidas para evaluar el error de
muestreo. Por lo tanto, las estimaciones obtenidas a partir de muestras
aleatorias pueden ir acompañadas de medidas de la incertidumbre asociada
a la estimación. Esto puede tomar la forma de un error estándar, o si la
muestra es lo suficientemente grande y mediante el teorema central del
límite, podrán calcularse intervalos de confianza.
Tipos de muestra aleatoria
Muestra aleatoria simple se selecciona directo cuando todas las potenciales
observaciones de la población.
Una muestra auto-ponderada, es aquella en la que cada individuo o un
objeto, en la población de interés tienen la misma oportunidad de ser
seleccionadas para la muestra. Las muestras aleatorias simples son auto-
ponderadas.
El muestreo estratificado implica seleccionar muestras independientes de
un número de subpoblaciones, grupo o estratos dentro de la población. Por
ejemplo, si queremos analizar los datos de unas elecciones por género o
por grupo de edad, deberemos cerciorarnos de obtener muestras
representativas de todas las subpoblaciones.
El muestreo por clusters, consiste en seleccionar las observaciones de la
muestra por grupos con intereses relacionados. Por ejemplo, si se plantea
conocer la opinión pública de un trasvase en un rio, deberemos hacer dos
VARIABLES ALEATORIAS
Una variable aleatoria o variable estocástica es una variable estadística
cuyos valores se obtienen de mediciones en experimento aleatorio.
Intuitivamente, una variable aleatoria puede tomarse como una cantidad
cuyo valor no es fijo pero puede tomar diferentes valores; una distribución
de probabilidad se usa para describir la probabilidad de que se den los
diferentes valores.
Las variables aleatorias suelen tomar valores reales, pero se pueden
considerar valores aleatorios como valores lógicos, funciones... El término
elemento aleatorio se utiliza para englobar todo ese tipo de conceptos
relacionados
Tipos de variables aleatorias
Variable aleatoria discreta: una v.a es discreta si su recorrido es un
conjunto discreto. La variable del ejemplo anterior es discreta. Sus
probabilidades se recogen en la función de cuantía. (Véanse las
distribuciones de variable discreta).
Variable aleatoria continua: una v.a. es continua si su recorrido no es un
conjunto numerable. Intuitivamente esto significa que el conjunto de
posibles valores de la variable abarca todo un intervalo de números reales.
Por ejemplo, la variable que asigna la estatura a una persona extraída de
una determinada población es una variable continua ya que, teóricamente,
todo valor entre, pongamos por caso, 0 y 2,50 m, es posible
TEOREMA DE
PROBABILIDADES TOTAL
entonces, la probabilidad del evento B, llamada probabilidad total, se
calcula empleando la siguiente fórmula:
Teorema de Bayes El teorema de Bayes se utiliza para revisar probabilidades previamente
calculadas cuando se posee nueva información. Desarrollado por el
reverendo Thomas Bayes en el siglo XVII, el teorema de Bayes es una
extensión de lo que ha aprendido hasta ahora acerca de la probabilidad
condicional.
Comúnmente se inicia un análisis de probabilidades con una asignación
inicial, probabilidad a priori. Cuando se tiene alguna información adicional
se procede a calcular las probabilidades revisadas o a posteriori. El teorema
de Bayes permite calcular las probabilidades a posteriori y es:
IMPORTANCIA DE
DISTRIBUCIÓN DE
PROBABILIDAD La importancia de la distribución se pone de manifiesto ante las variadas
disciplinas del quehacer humano en las cuales este concepto está
involucrado, en forma definida o implícita.
Así, la distribución en el campo de las ciencias exactas remite a los
parámetros estadísticos de la distribución de probabilidades de las variables
aleatorias, entendida como una función que permite asignar a ciertos
sucesos definidos la probabilidad de que esos sucesos tengan lugar. Del
mismo modo, en el rico entorno del análisis matemático, se reserva la idea
de distribución a la denominada teoría de funciones generalizadas, ideal
para extender la aplicación de derivadas a todas las funciones matemáticas
que pueden integrarse. La sistematización de la distribución aplicada al
análisis matemático ha permitido avances acentuados en ámbitos como la
ingeniería, la física, el diagnóstico por imágenes y el procesamiento de
señales, entre otros.
En otros ámbitos, la idea de distribución es también aplicable de forma
amplia. Así, se denomina distribución mecánica a los complejos
mecanismos involucrados en la regulación de la entrada y la salida de
fluidos en los motores de combustión interna de distintas maquinarias y
vehículos. En cambio, en biología, se reserva la idea de distribución para
informar la localización de una especie viviente en un determinado bioma
o bien, cuando corresponde, se habla de distribución cosmopolita para los
seres vivos que se encuentran difundidos por todo el planeta, como ocurre
con numerosas bacterias, hongos, ácaros y ciertos animales superiores,
como los cetáceos.
desde Importancia http://www.importancia.org/distribucion.php#ixzz3KcBZkHCo
MÉRIDA – VENEZUELA