monografia de diseño

11
INTRODUCCIÓN Una manera de definir la estadística es considerándola una serie ordenada de métodos que se ocupan de la recolección, organización, presentación, análisis e interpretación de datos numéricos. Se acostumbra dividirla, según el propósito que se persigue, en: descriptiva e inferencial. La estadística descriptiva se utiliza para describir la frecuencia y distribución de las características (o variables) del objeto en estudio, en tanto que la estadística inferencial se ocupa del proceso metódico para obtener conclusiones válidas de una muestra, con respecto a la población, de manera tal que se le pueda considerar representativa de ella. Para entender cuándo y cómo se usa una o la otra, es preciso entender y definir algunos conceptos básicos de la estadística. CONCEPTOS GENERALES A diferencia de la estadística paramétrica, en la que el investigador aspira encontrar en las características de la muestra que ha seleccionado, aquellas que distinguen a la población de donde ésta procede; hay dos formas de actuar: 1) Estimar el valor de un parámetro a partir de la muestra, y 2) Contrastar si su hipótesis es confirmada en la muestra, poniendo a prueba la hipótesis de las diferencias nulas (Ho), la que de no confirmarse se explica por la hipótesis alterna (H1), que acepta que esas diferencias existen dentro de cierto margen de probabilidad: cuando son significativas (a nivel de una p < 0.05 o < 0.001) se rechaza la hipótesis nula y se acepta la hipótesis alterna. En estadística se definen como variables a los atributos, rasgos o propiedades de un grupo de elementos que toman diferentes valores, magnitudes o intensidades. En el proceso de medición de ellas se les asignan números o códigos de observación. La manera más aceptada para ordenar y cuantificar una

Transcript of monografia de diseño

Page 1: monografia de diseño

INTRODUCCIÓN

Una manera de definir la estadística es considerándola una serie ordenada de métodos que se ocupan de la recolección, organización, presentación, análisis e interpretación de datos numéricos.Se acostumbra dividirla, según el propósito que se persigue, en: descriptiva e inferencial. La estadística descriptiva se utiliza para describir la frecuencia y distribución de las características (o variables) del objeto en estudio, en tanto que la estadística inferencial se ocupa del proceso metódico para obtener conclusiones válidas de una muestra, con respecto a la población, de manera tal que se le pueda considerar representativa de ella. Para entender cuándo y cómo se usa una o la otra, es preciso entender y definir algunos conceptos básicos de la estadística.

CONCEPTOS GENERALES

A diferencia de la estadística paramétrica, en la que el investigador aspira encontrar en las características de la muestra que ha seleccionado, aquellas que distinguen a la población de donde ésta procede; hay dos formas de actuar: 1) Estimar el valor de un parámetro a partir de la muestra, y2) Contrastar si su hipótesis es confirmada en la muestra, poniendo a prueba la hipótesis de las diferencias nulas (Ho), la que de no confirmarse se explica por la hipótesis alterna (H1), que acepta que esas diferencias existen dentro de cierto margen de probabilidad: cuando son significativas (a nivel de una p < 0.05 o < 0.001) se rechaza la hipótesis nula y se acepta la hipótesis alterna.

En estadística se definen como variables a los atributos, rasgos o propiedades de un grupo de elementos que toman diferentes valores, magnitudes o intensidades. En el proceso de medición de ellas se les asignan números o códigos de observación.La manera más aceptada para ordenar y cuantificar una variable, propuesta por Stevens, es dividirlas en cualitativas (según su calidad o atributo) o cuantitativas (de acuerdo a la magnitud de su medición). Cuando la variable cualitativa no tiene punto de comparación como el color de los ojos (café, azul, verde, negro) se le denomina variable cualitativa nominal; cuando hay un determinado orden como clase social(alta, media, baja), duración de una enfermedad (aguda, subaguda, crónica), orden en la familia (primero, segundo, tercero, etc.) se le llama variable cualitativa ordinal. Cuando la variable cuantitativa sólo se puede medir en valores enteros: como el número de alumnos, el número de partos, elénúmerordetempleados, se le denomina variable cuantitativa discreta, discontinua o de intervalo, mientras que si la variable se puede expresar en fracciones, como peso al nacimiento (3,460 g) o estatura (51.3 cm), se les denominan variables cuantitativas continuas o de razón y puede ser que los datos tengan una distribución normal (sesgo de -0.5 a +0.5 y curtosis de 2 a 4)

Desde sus inicios, las computadoras se han utilizado en el manejo de los datos y en ellas se puede hacer uso de las técnicas estadísticas, por lo que hay paquetes estadísticos entre los cuales el SPSS (Statistical Package for the Social Sciences) es, quizá, el más usado, con más de tres décadas en el mercado.

Page 2: monografia de diseño

El procedimiento estadístico que se usará para el análisis depende de: 1) El tipo de medida de la variable a analizar.2) La-distribución.que.caracteriza a las mediciones de las variables, la homogeneidad de las varianzas en los grupos de ellas, el impacto de los residuos y el tamaño de la muestra; 3) El poder de la prueba que se usará, es decir, la capacidad de aceptar o rechazar, correcta- mente, la hipótesis nula.En el cuadro 1 se presenta una guía para la valoración de los datos estadísticos de carácter cuantitativo.

Cuando se pretende probar una hipótesis respecto a uno o más parámetros de una población que tiende a una distribución normal, las pruebas usadas son las de la estadística paramétrica, como la t de Student.En el cuadro 2 se presentan las características comunes a estas pruebas paramétricas.

Por lo contrario, si los procedimientos estadísticos no requieren plantear inferencias acerca de los parámetros de la población (su media y dispersión) se le conoce como no paramétricos, o de distribución libre (ya que no se hacen suposiciones acerca de la distribución de la población de donde procede la muestra.En el cuadro 3 se presentan las características que son comunes a las pruebas de hipótesis no paramétricas.

Page 3: monografia de diseño

Con las pruebas no paramétricas se puede trabajar con muestras pequeñas de datos categóricos u ordinales, independientemente de la distribución de las muestras que se desea contrastar. Moses considera que las pruebas no paramétricas: 1) Son más fáciles de aplicar; 2) Son aplicables a los datos jerarquizados; 3) Se pueden usar cuando dos series de observaciones provienen de distintas poblaciones; 4) Son la única alternativa cuando el tamaño de muestra es pequeño; y, 4) Son útiles a un nivel de significancia previamente especificado. En el cuadro 4 se pueden ver las características más importantes de las pruebas no paramétricas.

En términos generales, se puede considerar que aunque la potencia de las pruebas estadísticas paramétricas es mayor que la que ofrecen las pruebas no paramétricas, ya que con ellas es la probabilidad de rechazar la hipótesis nula cuando ésta realmente es falsa (error de tipo II: 1-β), es conveniente comentar que el adecuado tamaño de muestra es un requisito indispensable para aumentar la eficacia de una prueba: a medida que au- menta el tamaño de muestra, disminuye la posibilidad de cometer el error de tipo II.

Page 4: monografia de diseño

En el cuadro 5 aparecen algunas de las pruebas paramétricas más usadas y sus al- ternativas no paramétricas y en el cuadro 6 se resumen las indicaciones de las pruebas estadísticas no paramétricas.

MILTON FRIEDMAN

Page 5: monografia de diseño

Uno de los más importantes economistas de la segunda mitad del siglo XX. Premio Nobel de Economía en 1976 "por sus resultados en los campos del análisis del consumo, historia y teoría monetaria y por su demostración de la complejidad de la política de estabilización." Friedman fue un monetarista. Propuso resolver los problemas de inflación limitando el crecimiento de la oferta monetaria a una tasa constante y moderada. Economista empírico, era especialista en estadística y econometría. Defensor del libre mercado, fue el más conocido líder de la Escuela de Chicago debido, en parte, a que sus escritos son muy fáciles de leer por el hombre de la calle. Se opuso al keynesianismo en el momento de máximo apogeo de éste, en los años cincuenta y sesenta.

Su explicación de la demanda de dinero (1956) es bastante más elegante, completa y contrastable que muchas anteriores. Para Friedman, la demanda de dinero es función de la proporción entre la riqueza humana y no humana, el tipo de interés nominal, la inflación esperada, el nivel de precios real, la función de preferencia del dinero ante otros bienes y, naturalmente, de la renta. Pero a diferencia de Keynes, Friedman, más centrado en dar una explicación a largo plazo, considera la renta permanente; es decir, el valor actualizado a fecha actual de los capitales futuros originados de un stock de riqueza dado. Stock que engloba no sólo aspectos cuantitativos o materiales, sino también cualitativos.

Otra gran aportación de Friedman es la revisión de curva de Phillips, de inspiración keynesiana, que relaciona inversamente niveles de paro e inflación. Considera Friedman que el paro sería voluntario de no ser por la existencia de una tasa de paro natural, la NAIRU (non accelerating inflation rate of unemployment), consecuencia de las limitaciones impuestas por gobiernos y otras instituciones públicas. Un ejemplo de ello es la prohibición de ciertos tipos de contratos. Cuando un gobierno intenta disminuir el paro por debajo de esa tasa natural mediante políticas monetarias muy expansivas, a corto plazo puede conseguirlo. Pero los agentes económicos se acaban dando cuenta de que, si con iguales salarios hay inflación, ven menguada su capacidad de adquisición de bienes y servicios. De tal modo que descuentan ese efecto, y en la próxima revisión de sus contratos elevarán sus salarios al alza, lo que incita a un nivel de paro mayor. Por tanto, no se logra reducir la tasa de paro de partida, y además se produce una variación mayor del nivel de precios. Así, todo intento sistemático por parte de los gobiernos de reducir el paro acaba creando inflación sin resolver el desempleo. Incluso puede haber un punto a partir del cual la curva de Phillips se torne en una curva de pendiente positiva, de tal modo que paro e incremento de inflación estén ligados. Eso sucedió en las crisis del petróleo de los años 70, situación que la teoría keynesiana era incapaz de explicar.

En consecuencia, el éxito de la intervención de los gobiernos es muy limitado, y lo que deben de hacer es eliminar las restricciones que impiden que la tasa de paro natural se instale en una cota más reducida. Con este análisis Friedman consiguió tres importantes logros. El primero de ellos, dar una explicación anticipada a lo que después sucedería con las crisis del petróleo. El segundo, demostrar que la política monetaria tiene efectos reales (sobre el empleo) a corto plazo, pero a largo plazo sólo tiene efectos nominales (sobre los precios). El tercero, sentar las bases de posteriores desarrollos basados en la hipótesis de expectativas racionales, y no adaptativas como hasta entonces. Este tema es algo en lo que trabajó mucho su colaborador Edmun S. Phelps que, treinta años después

Page 6: monografia de diseño

de Friedman, también fue premiado con el Nobel. De manera que, a pesar del tiempo transcurrido, la validez del razonamiento de Friedman sigue estando muy vigente.

Friedman consideraba que, al igual que una política monetaria expansiva puede crear crisis económicas, una política restrictiva también puede ser perjudicial, mediante una deflación de precios. Así lo puso de manifiesto en 1963 cuando publicó, junto a Anna Schwartz, un voluminoso tomo llamado “A Monetary History of the United States, 1897-1958”. Donde argumenta que la Gran Depresión fue consecuencia de la implantación de políticas equivocadas por parte de la Reserva Federal.

Defensor de la libertad individual, propugnó medidas de corte liberal. Una de ellas fue el establecimiento del bono educativo, en la idea de incentivar la demanda educativa según las preferencias de los padres. Propuso la flexibilización de precios, desregulaciones y privatizaciones, sistemas de pensiones individualizadas, la legalización del consumo de drogas y de la prostitución. Defendió la abolición del servicio militar obligatorio, de los salarios mínimos y del seguro social. En el terrero fiscal ideó el impuesto sobre la renta negativo, de tal modo que se subvencionara a las rentas más bajas. Se equivocó al augurar que el euro jamás llegaría a existir, y cuando dijo que la Unión Monetaria ya conseguida aguantaría pocos años.

Friedman nació en el barrio neoyorquino de Brooklyn el 31 de julio de 1912. Fue el cuarto y último hijo de una familia humilde formada por Sarah Ethel y Jeno Saul Friedman, inmigrantes judíos procedentes del centro de Europa, aunque nunca les faltó para comer. Su padre murió teniendo Friedman 15 años. A pesar de ello, y debido al gran esfuerzo económico realizado por su familia y l mismo costeándose sus estudios, Friedman cursó Economía en la Universidad Rutgers (New Jersey) y obtuvo el doctorado en la Universidad de Columbia en 1946. Fue alumno de Simon Kuznetzs y Arthur Burns. Trabajó como economista para varias agencias federales en la ciudad de Washington de 1935 a 1940 y de 1941 a 1943. En 1968 presentó su tesis. Profesor de la Universidad de Chicago desde 1946 a 1976. También dio clases en las universidades de Wisconsin, Princeton, Columbia y Stanford. En 1977 se jubiló de su labor docente.

Investigador del National Bureau of Economic Research, de 1937 a 1981. Miembro del Partido Republicano, fue asesor económico, entre otros, de Richard Nixon, Ronald Reagan y George W. Bush. Presidente de la American Economic Association en 1967. En 1947 funda junto a Hayek y otros la sociedad “Mont Pèlerin”, de la que fue elegido presidente en 1972. Fue consultor en la puesta en marcha del Plan Marshall. Desde 1977 hasta su muerte, fue Senior Reserarch Fellow en el instituto Hoover de la Universidad Stanford. También perteneció a la American Philosophical Society y la National Academy of Sciences.

En 1938 se casó con la también economista Rose Director Friedman, a la que conoció cuando ambos estudiaban en la Universidad de Chicago en una clase impartida por Jacob Viner. Juntos crearon la Milton and Rose D. Friedman Foundation for Educational Choice. También firmaron conjuntamente varios libros.

Asesoró a multitud de gobiernos, muchos de los cuales aplicaron sus propuestas. Tan popular como polémico, mantuvo diversas apariciones en multitud de medios de comunicación orales y escritos hasta el final de sus días. Escribió en la prestigiosa revista "Newsweek" (1966-1984).

Page 7: monografia de diseño

En 1980, la cadena pública de televisión estadounidense PBS emitió una serie de diez capítulos, escrita por el propio Friedman, llamada "Free to choose". Tuvo gran éxito y fue traducida y emitida en español. Existe publicación impresa de un libro con el mismo nombre, escrito por Milton y Rose, también con notable acogida.Entre sus condecoraciones, cabe destacar la Medalla John Bates Clark (1951), la Medalla de la Libertad (1988) y la Medalla Nacional de la Ciencia (1988). Recibió títulos honorarios de distintas universidades de EE.UU., Japón, Israel o Guatemala, así como la Grand Cordon of the First Class Order of the Sacred Treasure, otorgada por el gobierno japonés en 1986.

PRUEBA DE FRIEDMAN

Es una extensión de la prueba de Wilcoxon para incluir datos registrados en más de dos periodos de tiempo o grupos de tres o más sujetos pareados, con un sujeto de cada grupo que ha sido asignado aleatoriamente a una de las tres o más condiciones.La prueba examina los rangos de los datos generados en cada periodo de tiempo para determinar si las variables comparten la misma distribución continua de su origen. Es especialmente útil cuando la variable dependiente es continua pero su distribución se encuentra sesgada.

Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible entre sí, y a cada uno de los elementos del grupo se le aplica uno de entre k ''tratamientos'', o bien cuando a cada uno de los elementos de una muestra de tamaño n se le aplican los k ''tratamientos''.

La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los ''tratamientos'' tienen la misma distribución de probabilidad o distribuciones con la misma mediana, frente a la hipótesis alternativa de que por lo menos la distribución de una de las respuestas difiere de las demás. Para poder utilizar esta prueba las respuestas deben ser variables contínuas y estar medidas por lo menos en una escala ordinal.Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de los k elementos de cada grupo a los k tratamientos:

Grupo\ Tratamiento 1 2 ... j ... k

1...i...n

x11....xi1...

xn1

x12....xi2...

xn2

...

...

...

...

...

x1j....xij...

xnj

...

...

...

...

...

x1k....xik...

xnk

Page 8: monografia de diseño

A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta k; a continuación se suman los rangos correspondientes a cada columna, siendo RJ la suma correspondiente a la columna j-ésima. Si la hipótesis nula es cierta, la distribución de los rangos en cada fila se debe al azar, y es de esperar que la suma de los rangos correspondientes a cada columna sea aproximadamente igual a n(k + 1)/2. La prueba de Friedman determina si las RJ observadas difieren significativamente del valor esperado bajo la hipótesis nula.El estadístico de prueba es:

Para ver esta película, debedisponer de QuickTime™ y de

un descompresor .

Si H0 es cierta y el número de columnas y/o de filas es moderadamente grande la distribución de F se aproxima a una chi-cuadrado con k - 1 grados de libertad; de forma que se rechaza la hipótesis nula para valores de F superiores al valor crítico para el nivel de significación fijado.