UNIVERSIDAD NACIONAL DE CHIMBORAZO
FACULTAD DE CIENCIAS POLÍTICAS Y ADMINISTRATIVAS
CARRERA DE CONTABILIDAD Y AUDITORIA
NOMBRE: JESSICA SALGUERO
SEMESTRE: CUARTO “B”
TEOREMA DE LIMITE CENTRAL
El teorema del límite central o teorema central del límite indica que, en condiciones muy generales, si Sn es la suma de n variables aleatorias independientes y de varianza no nula pero finita, entonces la función de distribución de Sn «se aproxima bien» a una distribución normal (también llamada distribución gaussiana, curva de Gauss o campana de Gauss). Así pues, el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande.
Teorema del límite central: Sea , , ..., un conjunto de variables
aleatorias, independientes e idénticamente distribuidas con media μ y
varianza . Sea
Entonces
Ejemplo: la variable "tirar una moneda al aire" sigue la distribución de
Bernouilli. Si lanzamos la moneda al aire 50 veces, la suma de estas 50
variables (cada una independiente entre sí) se distribuye según una
distribución normal.
Este teorema se aplica tanto a suma de variables discretas como de variables
continuas.
Los parámetros de la distribución normal son:
Media: n * m (media de la variable individual multiplicada por el número de
variables independientes)
Varianza: n * s2 (varianza de la variable individual multiplicada por el número
de variables individuales)
Veamos un ejemplo:
Se lanza una moneda al aire 100 veces, si sale cara le damos el valor 1 y si
sale cruz el valor 0. Cada lanzamiento es una variable independiente que se
distribuye según el modelo de Bernouilli, con media 0,5 y varianza 0,25.
Calcular la probabilidad de que en estos 100 lanzamientos salgan más de 60
caras.
La variable suma de estas 100 variables independientes se distribuye, por
tanto, según una distribución normal.
Media = 100 * 0,5 = 50
Varianza = 100 * 0,25 = 25
Para ver la probabilidad de que salgan más de 60 caras calculamos la variable
normal tipificada equivalente:
(*) 5 es la raiz cuadrada de 25, o sea la desviación típica de esta distribución
Por lo tanto:
P (X > 60) = P (Y > 2,0) = 1- P (Y < 2,0) = 1 - 0,9772 = 0,0228
Es decir, la probabilidad de que al tirar 100 veces la moneda salga más de 60
caras es tan sólo del 2,28%
PRUEBA DE HIPÓTESIS
Una hipótesis estadística es una proposición o supuesto sobre los parámetros de una o más poblaciones.
Suponga que se tiene interés en la rapidez de combustión de un agente propulsor sólido utilizado en los sistemas de salida de emergencia para la tripulación de aeronaves. El interés se centra sobre la rapidez de combustión promedio. De manera específica, el interés recae en decir si la rapidez de combustión promedio es o no 50 cm/s. Esto puede expresarse de manera formal como
Ho; = 50 cm/s
H1; 50 cm/s
QUE ES UNA HIPÓTESIS
Una hipótesis (del latín hypothĕsis y este del griego ὑπόθεσις) es una
«suposición de algo posible o imposible para sacar de ello una
consecuencia».1 Es una idea que puede no ser verdadera, basada en
información previa. Su valor reside en la capacidad para establecer más
relaciones entre los hechos y explicar por qué se producen. Normalmente se
plantean primero las razones claras por las que uno cree que algo es posible. Y
finalmente ponemos: en conclusión. Este método se usa en el método
científico, para luego comprobar las hipótesis a través de los experimentos.
Una hipótesis científica es una proposición aceptable que ha sido formulada
a través de la recolección de información y datos, aunque no esté confirmada,
sirve para responder de forma alternativa a un problema con base científica.
HIPÓTESIS NULA
En estadística, una hipótesis nula es una hipótesis construida para anular o refutar, con el objetivo de apoyar una hipótesis alternativa. Cuando se utiliza, la hipótesis nula se presume verdadera hasta que una prueba estadística en la forma de una prueba empírica de la hipótesis indique lo contrario. Si la hipótesis nula no es rechazada, esto no quiere decir que sea verdadera.
La hipótesis nula consiste en una afirmación acerca de la población de origen de la muestra. Usualmente, es más simple (menor número de parámetros, por ejemplo) que su antagonista. Se designa a la hipótesis nula con el símbolo H0.
EJEMPLOS
Hipótesis nula para la Distribución χ²:
«Si este material genético segrega en proporciones mendelianas, no habrá diferencias entre
las frecuencias observadas (Oi) y las frecuencias esperadas (Ei)».
Hipótesis nula para la distribución t de Student:
«Si la humedad no influye sobre el número de huevos por desove, no habrá diferencias entre
las medias de esta variable para cada región».
Plantea la diferencia nula entre el valor observado y el especificado. O entre el muestral
respecto al poblacional.
HIPÓTESIS ALTERNATIVA
La hipótesis alternativa es igualmente una afirmación acerca de la población de origen. Muchas veces, aunque no siempre, consiste simplemente en negar la afirmación de H0. La hipótesis alternativa se designa con el símbolo H1.
ERROR TIPO 1
En un estudio de investigación, el error de tipo I también denominado error
de tipo alfa (α)1 o falso positivo, es el error que se comete cuando el
investigador no acepta lahipótesis nula ( ) siendo esta verdadera en
la población. Es equivalente a encontrar un resultado falso positivo, porque el
investigador llega a la conclusión de que existe una diferencia entre las
hipótesis cuando en realidad no existe. Se relaciona con el nivel
de significancia estadística.
Representación de los valores posibles de la probabilidad de un error tipo II
(rojo) en el ejemplo de un test de significancia estadística para el parámetro μ.
El error tipo II depende del parámetro μ . Mientras más cerca se encuentre este
del valor supuesto bajo la hipótesis nula, mayor es la probabilidad de
ocurrencia del error tipo II. Debido a que el verdadero valor de μ es
desconocido al hacer la presunción de la hipótesis alternativa, la probabilidad
del error tipo II, en contraste con el error tipo I (azul), no se puede calcular.
La hipótesis de la que se parte aquí es el supuesto de que la situación
experimental presentaría un «estado normal». Si no se advierte este «estado
normal», aunque en realidad existe, se trata de un error estadístico tipo I.
Algunos ejemplos para el error tipo I serían:
Se considera que el paciente está enfermo, a pesar de que en realidad está
sano; hipótesis nula: El paciente está sano.
Se declara culpable al acusado, a pesar de que en realidad es inocente;
hipótesis nula: El acusado es inocente.
No se permite el ingreso de una persona, a pesar de que tiene derecho a
ingresar; hipótesis nula: La persona tiene derecho a ingresar.
ERROR TIPO 2
En un estudio de investigación, el error de tipo II, también llamado error de
tipo beta (β) (β es la probabilidad de que exista este error) o falso negativo,
se comete cuando el investigador no rechaza la hipótesis nula siendo esta falsa
en la población. Es equivalente a la probabilidad de un resultado falso
negativo, ya que el investigador llega a la conclusión de que ha sido incapaz de
encontrar una diferencia que existe en la realidad.
Se acepta en un estudio que el valor del error beta esté entre el 5 y el 20%.
Contrariamente al error tipo I, en la mayoría de los casos no es posible calcular
la probabilidad del error tipo II. La razón de esto se encuentra en la manera en
que se formulan las hipótesis en una prueba estadística. Mientras que la
hipótesis nula representa siempre una afirmación enérgica (como por
ejemplo «Promedio μ = 0») la hipótesis alternativa, debido a que engloba
todas las otras posibilidades, es generalmente de naturaleza global (por
ejemplo «Promedio μ ≠ 0» ). El gráfico de la derecha ilustra la
probabilidad del error tipo II (rojo) en dependencia del promedio μ desconocido.
BIBLIOGRAFÍA
SUÁREZ, Mario, (2011), Interaprendizaje de Estadística Básica,
SUÁREZ, Mario, (2004), Interaprendizaje Holístico de Matemática, Ed. Gráficas Planeta, Ibarra, Ecuador.
Betz, M.A. & Gabriel, K.R., "Type IV Errors and Analysis of Simple Effects", Journal of Educational Statistics, Vol.3, No.2, (Summer 1978), pp. 121–144.
David, F.N., "A Power Function for Tests of Randomness in a Sequence of Alternatives", Biometrika, Vol.34, Nos.3/4, (December 1947), pp. 335–339.
Fisher, R.A., The Design of Experiments, Oliver & Boyd (Edinburgh), 1935.
Top Related