MASTER DE ENERGIA NUCLEAR - TRATAMIENTO DE DATOS

31
  M MA ASTER R  E E  N  N T TEC  N  NOLO G GÍ Í A A N  N U UCLE A AR R :  F F I ISI Ó Ó  N  N,  F U USI I Ó Ó  N  N  Y Y M ME EDI ICI I  N  N A A N  N U UC L L E E A AR R  Marzo - Diciembre 2005 Asignatura: Tratamiento de datos experimentales Profesor: J.M. Los Arcos FORMACIÓN EN ENERGÍA Y MEDIO AMBIENTE (TECNOLOGÍA Y SEGURIDAD INDUSTRIAL )

Transcript of MASTER DE ENERGIA NUCLEAR - TRATAMIENTO DE DATOS

M MA AS ST TE ER R E EN N T TE EC CN NO OL LO OG G A A N NU UC CL LE EA AR R: : F FI IS SI I N N, , F FU US SI I N N Y Y M ME ED DI IC CI IN NA A N NU UC CL LE EA AR R Marzo - Diciembre 2005 Asignatura: Tratamiento de datos experimentales Profesor: J.M. Los Arcos FORMACIN EN ENERGA Y MEDIO AMBIENTE (TECNOLOGA Y SEGURIDAD INDUSTRIAL) 2 CARACTERSTICAS DE LA MEDIDA. ESTADSTICA 3NDICE CARACTERSTICAS DE LA MEDIDA. ESTADSTICA 1.VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD 1.1.Variables aleatorias: conceptos bsicos1.2.Distribuciones de probabilidad: densidad y funcin acumulativa 1.3.Distribuciones de probabilidad conjunta. Variables aleatorias independientes 1.4.Caracterizacin de distribuciones. Media y varianza. Teorema de Chebyshev 1.5.Distribuciones usuales 2.DISTRIBUCIONES DE PROBABILIDAD EN RADIACTIVIDAD 2.1.Carcter probabilstico 2.2.Distribucin de Bernouilli (binomial) 2.3.Aproximacin de Poisson 2.4.Aproximacin de Gauss 2.5.Aplicacin a recuentos en medidas de radiactividad 3.EXPRESIN DE RESULTADOS DE MEDIDAS 3.1.Distribucin muestral de la media. Teorema del lmite central 3.2.Distribucin muestral de la varianza. Propagacin de errores 3.3.Intervalos y niveles de confianza 3.4.Comprobacin de hiptesis: pruebas 2, t, F 3.5.Expresin de la incertidumbre de medidas 3.6.REFERENCIAS 11.VARIABLES ALEATORIAS Y DISTRIBUCIONES DE PROBABILIDAD Tantolaemisinderadiacionescomosuinteraccinconlamateriaenlossistemas que se emplean para su deteccin y recuento, son procesos estocsticos cuya observacin, en condicionesidnticas,noconducesiemprealosmismosresultados,quefluctan aleatoriamentesegnciertasleyesprobabilsticas.Portanto,lametrologaderadiaciones debe apoyarse en nociones estadsticas para poder interpretar las fluctuaciones de las medidas yexpresarconfiabilidadelresultadodelosexperimentosyobservaciones,ysu incertidumbre asociada. En este captulo se van a revisar algunos conceptos esenciales a este respecto. 1.1 Variables aleatorias: conceptos bsicos Engeneral,sedenominaexperimentoestadsticoaunconjuntodecondiciones reproducibles,bajolasqueserealizanobservacionescuyosresultados,quesepueden registrarenformadescriptivao,mscomnmente,enformanumrica,noson necesariamentenicos.Enunexperimentoestadstico,sellamapoblacinalconjuntode todaslasobservacionesrealizables(orealizadas),mientrasquesedenominaespacio muestral,S,alconjuntodelosdiferentesresultadosposiblesparacadaobservacin,y variablealeatoria,X,alafuncinqueasociaunnmeroreal,x0R,acadaelementodel espaciomuestral.Habitualmente,seacostumbraadesignarlasvariablesaleatoriasporletras maysculas,X,mientrasquesusvaloresserepresentanporletrasminsculas,x.Enla mayoradelosexperimentosfsicos,nosetieneaccesoalapoblacincompletasinoaun subconjunto de n observaciones, que se denominamuestra de tamao n. Formalmente, una muestra de tamao n est definida por los valores xi, i = 1, 2, ... n, de n variables aleatorias, Xi,i=1,2,...,n,querepresentanlassucesivasobservaciones,siemprebajolasmismas condiciones, por lo que pueden suponerse independientes unas de las otras. Sielespaciomuestraldeunexperimentoslotieneunnmerofinito,ounaserie infinitaperonumerable,deresultadosposibles,sehabladeespaciomuestraldiscretoyde variables aleatorias discretas. En caso contrario, si el nmero de elementos se puede poner en correspondencia biunvoca con los puntos de la recta real, se habla de espacio muestral y devariablesaleatoriascontnuas.Enlaprctica,lasvariablesaleatoriascontnuas representandatosdemedicionescomopesos,volmenes,temperaturas,mientrasquelas variablesaleatoriasdiscretasrepresentandatosderecuentocomoelnmerodepiezas defectuosas en una muestra o el nmero de partculas beta emitidas por una fuente radiactiva. Ejercicio 1.1.1: Considere un experimento consistente en lanzar una moneda (siempre en las mismas condiciones)observandolacarasuperiortrascadalanzamiento.Analicelascaractersticasdel experimento cuando se realizan, por ejemplo, tres lanzamientos consecutivos. Ejercicio1.1.2:Considereelexperimentoconsistenteenlanzarundadoobservandolascaras superioresencadagrupodetreslanzamientosconsecutivos.Analicelascaractersticasdeeste experimento y construya la variable aleatoria que describe el nmero de caras en una terna. 21.2 Distribuciones de probabilidad: densidad y funcin acumulativa Enunespaciomuestral S, se denominasuceso, E, a un subconjunto Ed S, de modo quelosresultadosposiblesdelexperimento,cadaunoconunaprobabilidadcaracterstica asociada,nosonsinosucesosunitarios,elementales,apartirdelosquesepuededefinir sucesosmscomplejosmediantelasoperacionesbooleanasdecomplementacin,unine interseccin. Como consecuencia, cada suceso tiene asociada tambin una probabilidad P(E), que satisface las relaciones: y que se puede deducir a partir de las probabilidades de los sucesos unitarios por las leyes de clculodeprobabilidades.Porello,concualquiervariablealeatoriaX,resultaprctico utilizarunarelacinfuncionalentresusvalores,x,ysusprobabilidadesasociadas.Se denomina distribucin (o funcin) de probabilidad de una variable aleatoria discreta X, a una funcin f(x), si, para cada valor x de X, satisface: yparaunavariablealeatoriadiscreta,serepresentaenformadetablaomedianteuna expresin analtica que toma valores slo para los posibles resultados de medida. Porotraparte,sedenominadistribucinacumulativadeunavariablealeatoria discreta X con distribucin de probabilidad f(x), a una funcin F(t) que satisface: Esta funcin acumulativa est definida no slamente para los valores x de la variable aleatoriaX,sinoparatodonmerorealyrepresentalaprobabilidadasociadaalsuceso caracterizadoporlaunindetodoslossucesoselementalescuyovalornumricoesmenor que un nmero real, t, dado. LaFigura1.1muestralastpicasrepresentacionesgrficasdeladistribucinde probabilidad y de la funcin acumulativa correspondientes a una variable aleatoria discreta. La extensin de estos conceptos a distribuciones contnuas es inmediato. Se denomina densidad de probabilidad de una variable aleatoria contnua, X, a una funcin f(x) si 0 = ) ( P1 = ) S ( P1 ) E ( P 0 ) x( f = ) x= X ( P 3.1 = ) x( f 2.0 ) x( f 1.x ) x( f = ) tX ( P = ) t( Ft x 3 Figura1.1.Distribucindeprobabilidadyfuncinacumulativacorrespondientesaunavariablealeatoria discreta y la distribucin acumulativa, F(t), de una variable aleatoria contnua X con densidad f(x), es: Como consecuencia de la definicin, y en particular, dx (x) f = b) < X < (a P 3. 1 = dx(x) f 2.R x0 (x) f 1. ba+- x d ) x( f = ) tX ( P = ) t( Ft-dt ) t( f = ) dt+ t< x< t( P) existe si (dx) x( dF= ) x( f) a ( F - ) b ( F = ) b < x< a ( P 4A veces, no se conoce la funcin f(x) ni la distribucin acumulativa que corresponde a unadeterminadavariablealeatoriaexperimental,porloqueserecurreasuestimacin empricaatravsdelclculodelosrespectivoshistogramasdefrecuenciasrelativasode frecuenciasrelativasacumuladas,queseajustanmediantefuncionespolinmicasomodelos ms complejos. EnlaFigura1.2sepresentanlasgrficasdeladensidaddeprobabilidadydela funcin acumulativa correspondientes a una variable aleatoria contnua. Figura1.2.Densidaddeprobabilidadydelafuncinacumulativacorrespondientesaunavariablealeatoria contnua Ejercicio 1.2.1: La variable aleatoria discreta X tiene una distribucin de probabilidad: X 0 1 2 3 4 5 P(X) 0,1 0,1 0,2 0,3 0,2 0,1 Construir el histograma de probabilidad y la distribucin acumulativa. Ejercicio1.2.2:LavariablealeatoriaX,contnua,tieneunadensidaddeprobabilidadf(x)=[x2/3] para -1 < x < 2yf(x) = 0 en el resto. Calcule P(0 < x # 1). 1.3 Distribuciones de probabilidad conjunta. Variables aleatorias independientes 5Existen numerosos experimentos en los que intervienen ms de una variable aleatoria ysehacenecesarioextenderlosconceptosanterioresparaincluirlaaparicinsimultnea de losvaloresdecadavariable.Sinprdidadegeneralidad,ladistribucindeprobabilidad conjunta para dos variables aleatorias, X, Y, discretas, es una funcin f(x, y) que cumple: Yenelcasodedosvariablesaleatoriascontnuas,ladensidaddeprobabilidad conjunta es una funcin f(x,y) que cumple: Dadaunadistribucinodensidaddeprobabilidadconjunta,f(x,y),dedosvariables aleatorias X, Y, las distribuciones individuales (marginales) de X y de Y son: y Dosvariablesaleatorias,X,Y,condistribucindeprobabilidadconjuntaf(x,y)y distribucionesmarginalesrespectivasg(x),h(y),sonestadsticamenteindependientessiy slo si f(x,y) = g(x) . h(y). 1.4 Caracterizacin de distribuciones. Media y varianza. Teorema de Chebyshev LadistribucindeprobabilidaddeunavariablealeatoriaX,discretaocontnua,se caracteriza, en primer lugar, por sumedia, F = E(X), que indica la localizacin alrededor de la que se distribuyen los valores de la variable aleatoria y se define por: XY plano del Anregi cualquierpara ) y, x( f = ] ) Y , X ( [ P 3.1 = ) y, x( f 2.) y, x( 0 ) y, x( f 1.Ay x . xy plano del Anregi cualquierpara , dydx) y, x( f = ] ) Y X, ( [ P 3.1 = dydx) y, x( f 2.y) , x( 0 ) y, x( f 1.A+-+- contnuas les son variab si , dx) y, x( f = ) y( h dy ) y, x( f = ) x( g+-+- discretas aleatorias les son variab si , ) y, x( f = ) y( h ) y, x( f = ) x( gxY 6En general, E(X) no coincide necesariamente con un valor posible de . Es importante, a efectos de clculo, resear la siguiente propiedad, en la que se utiliza, por sencillez, la notacin de variables aleatorias contnuas sin prdida de generalidad: y para dos variables aleatorias con distribucin de probabilidad conjunta f(x,y), contnua es X si , dx) x( f = discreta es X si , ) x( f x= ) X ( =+-x ) x( g nfunci , dx) x( f ) x( g = ] ) X ( g [ E+- [ ] ) y, x( g nfunci , dydx) y, x( f ) y, x( g = ) Y , X ( g E+-+- 7Como consecuencia, se cumple: 1)E (aX + b) = a (EX) + b, a, b, constantes YE (b) = b, b constantes YE (aX) = a E(X) 2)E[g(X)+h(X)] = E [g (X)] + E [h (X)] 3)E [g (X, Y) + h (X, Y)] = E [g (X, Y)] + E [h (X, Y)] YE (aX + bY) = a E(X) + b E(Y) 4)Si adems X, Y, son independientes, E (X.Y) = E (X). E (Y). Otrondicedecaracterizacindeunadistribucin,quedaideadelamagnituddela variacindelosposiblesvaloresdelavariablealeatoriaesla varianza V(X), que se define por: y se cumple que: Para dos variables aleatorias, X, Y, con medias Fx,Fy, se define la covarianza por: y se cumple que: Lacovarianzatomavaloresnegativoscuandoavaloresaltosdeunavariable correspondenpreferentementevaloresbajosdelaotra,ytomavalorespositivosencaso contrario. Adems, cuando X e Y son estadsticamente independientes, su covarianza es nula, pero el recproco no es, en general, cierto. Se acostumbra a denominardesviacin tpica,x,alarazcuadradadelavarianza, porloqueV(X)=x2.Anlogamente,lacovarianzasesuelerepresentarenlaformaxy = cov(X,Y). [ ] ) - X ( E = ) X ( V222- )X( E = ) X ( V y x_ - ) Y . X ( E = ) Y , X ( cov[ ] ) - Y ( ) - X ( E = ) Y , X ( covy x 8 Aefectosdeclculo,esinteresanterecordarlassiguientespropiedadesdela varianza/covarianza: 1. 2g(x) = V [g(x)] = E[{g(X) - Fg(x)} ]2, y por tanto, 2b = 0 para b = constante 2aX = a2 2x, con a = constante 2. 2aX + bY = a2 2X + b2 2Y + 2ab XY 3. Si X e Y son variables aleatorias independientes, entonces 2aX + bY = a2 2X + b2 2Y Parafinalizar,simplementeenunciaremosunimportanteteorema,debidoa Chebyshev,querelacionacuantitativamentelosconceptosdelamediaylavarianzacomo ndices de centralizacin y dispersin de una variable aleatoria: Para cualquier variable aleatoria X, la probabilidad de que un valor x est dentro de k desviaciones tpicas alrededor del valor medio es al menos (1 - 1/k2), Por tanto, este teorema garantiza, para cualquier variable aleatoria, que dentro de " 2 est siempre el 75 % y dentro de " 3 el 88,8 % de sus valores observados. Ejercicio1.4.1:Una variable aleatoria tiene una mediax y una desviacin tpicax. 1) Calcule la media y la desviacin tpica de Y = 2x. 2) Calcule la media y la desviacin tpica de Z = X + X (dos observaciones independientes, de la misma variable X). 3) Analice los resultados obtenidos en 1) y 2). Ejercicio 1.4.2:Considere las variables aleatorias independientes, X, con media x y desviacin tpica x, e Y, con media y y desviacin tpica y. 1) Calcule la media y la desviacin tpica de S = X " Y. 2) Calcule la media y la desviacin tpica de P = X/Y. EjercicioIV1.4.3:UnavariablealeatoriaXtieneunamedia=8,varianza9ysudistribucinde probabilidad es desconocida. Estime la probabilidad P ( X - 8 $ 6). 1.5 Distribuciones usuales k1- 1 ) k + < X < k - ( P2 9Despusdehabervistolaspropiedadesgeneralesdelasdistribuciones,vamosa presentar ahora algunas distribuciones especficas de inters prctico. 1.5.1 Distribucin uniforme: discreta y continua Ladistribucindeprobabilidadmssimpleeslauniforme,enlaquelavariable aleatoria X toma cada uno de sus valores con igual probabilidad. En el caso discreto, la funcin de probabilidad es: y su media y su varianza son:En el caso contnuo, debe estar limitada a un intervalo y su densidad es: cuya media y varianza son: 1.5.2 Distribucin de Bernouilli (binomial) Consideremosunexperimentobinomialconsistenteennobservacionessucesivas cada una con dos nicos resultados posibles, que denominaremos "acierto" y "fallo", con probabilidades individuales p y q=1-p, respectivamente. Entonces, la distribucin deprobabilidaddelavariablealeatoriadiscreta,X,nmerodeaciertosenlasn observaciones, se denomina distribucin de Bernouilli o binomial y es: ) -x(k1= ) X ( V xk1= ) X ( E2i ii i ,_

,_

x, ... ,x,x= x,k1= ) k; x( u k 2 1 ) a - b (1= ) b , a ; x( u 12) a - b (= ) X ( V2) b + a (= ) X ( E 10cuya media y varianza son: 1.5.3 Distribucin de Poisson ConsideremosunexperimentodePoissonqueconsisteenobservarelnmerode "aciertos" en una regin o intervalo de tiempo, siempre que: 1)Laprobabilidaddeaciertoenunareginointervalomuypequeosea proporcional a su tamao o duracin, 2)Laprobabilidaddequeocurrandosomsaciertosenesareginointervalo pequeo sea despreciable, 3)Elnmerodeaciertosencadaintervaloseaindependientedelosdeotro intervalo. Entonces,ladistribucindeprobabilidaddelavariablealeatoriadiscretaX, nmero de aciertos en una regin o tiempo especificado es: dondeeselvalorpromediodelnmerodeaciertosqueaparecenenlaregino tiempos dados. En este caso, la media y la varianza son E(X) = V(X) = . LadistribucindePoissonsepuedeobtenercomoellmitedeladistribucin binomial cuando n 6 4y p 6 0 mientras np se mantiene constante. Por tanto, se puede utilizar la distribucin de Poisson en lugar de la binomial, con = np, siempre que n sea grande y p 0. 1.5.4 Distribucin de Gauss (normal) Una variable aleatoria contnua X tiene una distribucin de probabilidad de Gauss, o normal, si la funcin densidad es de la forma: n ..., , 1 , 0 = x, q xpxn= ) p , n; x( bnx

,_

q p n= ) X ( Vp n= ) X ( E ,... 0,1 = x,x! e= ) ; x( px- 1]1

+ < x < - ,e21= ) , ; x ( n ) - x ( 21-2 11cuya media y varianza son: Esta es, sin duda, la distribucin contnua de probabilidad ms importante en clculos estadsticosyconvienerecordaralgunosparmetroscaractersticosdesugrfica acampanadatambinllamadanormal.Porejemplo,suanchuraamediaalturavale 2%(2ln2),aproximadamente2,355,suanchuraa1/10dealturavale aproximadamente 4,292ylaprobabilidaddequeunaobservacinestdentrodel intervalo " alrededor de la media es: Mediante la transformacin z = (X-)/, se obtiene una distribucin normal de media 0 y varianza 1, denominada distribucin normal estndar, n(0,1), que evita tener que calcular o manejar tablas de cada distribucin normal individual. LadistribucindeGausssepuedeobtenercomoellmitecuandon64deuna distribucin binomial con media = n p y varianza 2 = n p q. Figura 1.3. 2= ) X ( V= ) X ( E -2-1 0120,40,30,20,1FWHMPx=e12 x222x/ FWHM=4,2919 P=12 e= 0,242/P ==Pxmax/2FWHMPx max12 =0,3989/ =P==Pxmax/10FWTM=2=2,3548 2 ln 2 0,99730,95420,683 ttt 121.5.5 Distribucin 2 de Pearson Unavariablealeatoriacontnua,X,tieneunadistribucionde2congradosde libertad si su funcin densidad es: donde (x)=I4o x-1 e-x dx, ,0, y se cumple que F2 = ,22 = 2. 1.5.6 Distribucin t de Student Una variable aleatoria contnua, X, tiene una distribucin t, con grados de libertad si su densidad es: y es una distribucin simtrica, con Ft=0, t2=/(-2), >2. 1.5.7 Distribucin F de Fisher Unavariablealeatoriacontnua,X,tieneunadistribucinF,con1y2gradosde libertad si su densidad es: ysatisfacex1-(1,2) = 1/x(1, 2),dondexeselvalorporencimadelcualla probabilidad acumulada vale . 0 >x, e x221= ) x( g 2x- 1 -22

,_

,_

,_

+ < x< - ,x+ 1221) + (= ) x( t 221) + (- ( )

,_

,_

,_

,_

1]1

,_

< x< 0 , x+ 1x 2 2 2) + (= ) x( f212+1 - 22 12122 12 111 131.5.8 Relaciones de inters 1.Dadas k variables aleatorias independientes, Xi, i = 1, 2, ..., k, con distribucin normal n(i, i2), la variable aleatoria tiene una distribucin normal con S=ki ai i,S2=ki ai2 i2 2.Dadas k variables aleatorias independientes, Xi, i = 1, 2, ..., k, con distribucin 2i con i grados de libertad, la variable aleatoria: X a= Si iki X= Yiki 14tiene una distribucin 2 con =ki igrados de libertad. 3.Dadaskvariablesaleatoriasindependientes,todascondistribucinnormal n(,2), entonces la variable aleatoria: tiene una distribucin 2 con =k grados de libertad. 4.Dadasdosvariablesaleatoriasindependientes,unanormaln(0,1)yuna variable aleatoria 2 con grados de libertad, entonces la variable aleatoria: tiene una distribucin t con grados de libertad. 5.Dadas dos variables aleatorias independientes, 1, 2, con distribucin 2 y 1 y 2 grados de libertad, respectivamente, entonces la variable aleatoria: tiene una distribucin F con 1 y 2 grados de libertad. 6.Existen interrelaciones asintticas entre las distribuciones mencionadas, que se resumen en la Figura 1.4.1]1

) -X(= Yi2ki

,_

22 / 1 ) 0,1 ( n = T

,_

,_

X X = F2211 15 Figura 1.4. Interrelaciones asintticas entre las distintas distribuciones 1.5.9 Tabla de la distribucin F ComoresumensepresentaunatabladeladistribucinFqueincluyetambinlos valoresdeladistribucint(N1=1)ydeladistribucin2(N2=4),comocasos particulares. 162. DISTRIBUCIONES DE PROBABILIDAD EN RADIACTIVIDAD 2.1 Carcter probabilstico Laradiactividadesunprocesotemporalestocstico,aleatorio,yyaen1906,von SchweidlersealquelaleyempricadeRutherfordySoddypodadeducirseapartirdela hiptesis de que la probabilidad de desintegracin de un tomo por unidad de tiempo es unaconstante,,sobrelaquenoinfluyelahistoriapreviadeesetomonilas desintegraciones de tomos de su entorno. Conesahiptesis,laprobabilidaddequeeltomosedesintegreenunpequeo intervalo de tiempo, t, es t, y la probabilidad de que sobreviva tras ese intervalo esp = 1 -t. En el siguiente intervalo temporal t, la probabilidad de supervivencia vuelve a ser p, ylaprobabilidaddequeeltomosobrevivatraslosdosintervalosesp2.Considerandok intervalos consecutivos, desde t = 0 hasta t = kt, la probabilidad de que un tomo sobreviva es: y en el lmite, cuando k 6 4, y t 6 0, la probabilidad de supervivencia de un tomo al cabo de un tiempo t es: y si el nmero inicial de tomos es N0, al cabo de t, quedan: que es la ley emprica de Rutherford y Soddy de la desintegracin radiactiva. Ahorasupongamosqueserealizasobreesesistemadetomosradiactivosunaserie de experimentos consistentes en observar el nmero,n, de tomos que se desintegran en un intervalo,t,dado.Lasobservacionesserealizanconsecutivamente,contomosdeun radionucleidodevidalargacomoel 14C, cuyo perodo (5.730 aos) es mucho mayor que el tiempodeobservacindemodoquelaobservacindendesintegracionesnomodifica sustancialmente el valor N0. Comoconsecuenciadelcarcterestocsticodeladesintegracinradiactiva,los valores n observados en sucesivos intervalos son diferentes, y nos encontramos frente a una variable aleatoria discreta, cuya distribucin de probabilidad es de tipo binomial (Bernouilli). Bajociertasconsideraciones,queconvieneprecisarencadacaso,sepuedenutilizarensu [ ] ( ) t/k- 1 = ) t- 1 ( = pk k k e=kt- 1lim= Pt -kk

,_

1]1

e N=Nt -0 t 17lugar otras distribuciones de probabilidad como la de Poisson o la de Gauss, como veremos a continuacin. 2.2 Distribucin de Bernouilli (binomial) Comoconsecuenciadesucarcterprobabilstico,laprobabilidadPndeobservar exactamente n desintegraciones de N0 tomos en un tiempo t es:

donde w = 1 - e- t. Setrataportantodeunadistribucindiscretadeprobabilidad,quesatisface 3nN0 Pn = 1 y su valor medio es E(n) = wN0= N0 (1- e- t) y su varianza es2 =V(n)= w N0 (1-w).EnlaFigura2.1semuestraunarepresentacingrficadeladistribucinbinomial para N0 = 50 y dos valores diferentes de w, a saber, 0,1 y 0,5. Figura 2.1. Distribucin binomial para N 0 = 50 Enlaprctica,elnmerodetomosradiactivos,N0,essiempremuygrande,1016 o ms, n ? N0 y w es muy pequeo, por lo quet ? 1. Por ejemplo, con N0 = 1016 tomos de 14C,laactividadesaproximadamente3,7x104Bqyelvaloresperadodelnmerode desintegraciones en t = 10 minutos es del orden de 107, y la probabilidad de supervivencia es 1 - w = e - t que difiere de 1 en slo 2 x 10-9. ) w - (1wn)! -N( n!!N=Pn - N n00n0(2.1)

182.3 Aproximacin de Poisson CuandoN0?1,n?N0yt?1,queeselcasodelejemplocon 14C,entoncesla distribucin de Bernouilli puede simplificarse y se transforma en la distribucin de Poisson: queesdelaformaPn=ne-/n!,cuyovalormedioF=E(n)=wN0,aligualqueenla binomial. Adems, la varianza es tambin V(n) = wNo Y F =2. La distribucin de Poisson es asimtrica y satisface: LadistribucindePoissonparawNo = 25,eslamismaquesemuestraen la Figura2.1correspondientealabinomialylaFigura2.2muestralasdistribucionesde Poisson correspondientes a valores wNo = 50 y 100. Figura 2.2. Distribuciones de poisson para valores w N o = 50 y 100 Otromotivodeintersdeestadistribucinesqueapartirdeellasepuedeestudiar fcilmente la distribucin de tamaos de los intervalos de tiempos entre dos desintegraciones sucesivas, combinando la probabilidad de que no ocurra ningn suceso en un intervalo (0 , t), con la probabilidad de que ocurra un suceso en (t, t + dt), cuando en promedio se producen por unidad de tiempo: quesedenominadistribucindeintervalosdetiemposdePoissonyesespecialmente ventajosaenfenmenostemporales,comotiemposmuertosdesistemasdedeteccin,por ejemplo. 2.4 Aproximacin de Gauss n!e)N(w=PN w -n0n0(2.2)P=PwN wN 01 0(2.3)dte> n < = dt> n < >) n < t, < (0P=dPt > n 30,esaaproximacinessiempresatisfactoriaysin X < = Xin1 = i(3.1)

21

223.2 Distribucin muestral de la varianza. Propagacin de errores Paramedirlaanchuradeunamuestrasepuedeutilizarelrangoyfundamentalmente la varianza muestral, que para una muestra de tamao n, se define por el estadstico: que es un estimador no sesgado de la varianza de la poblacin pues cumple que E(S2) =2. Suvalorenunamuestradadaserepresentapors2yssedenominadesviacintpicadela muestra. Cuando se considera la varianza muestral, S2, de una muestra de tamao n, extrada de una poblacin normal con varianza 2, se cumple que la variable aleatoria (n - 1) S2 / 2 sigue una distribucin 2 con = n - 1 grados de libertad. Yaquenodependedelamediamuestral,,seconcluyeque los dos estadsticos, mediayvarianzamuestral,sonvariablesaleatoriasindependientes,almenoscuandolas muestras proceden de poblaciones normales. Muy frecuentemente no se puede medir directamente la magnitud de inters sino que hayqueobtenersuvalorenfuncindeotrasmagnitudesmediblesysurgeelproblemade estimar su variabilidad (error) en funcin de la de esas magnitudes intermedias. Si la relacin eslineal,seutilizalapropagacindevarianzayavistaenunaseccinanterior.Perosi,por ejemplo, la magnitud y depende de otras, z1, z2 ..., zp, a travs de la relacin funcional y= y (z1, z2, ... zp), y se conocen las medias, zi, y las varianzas, 2zi, muestrales, se puede linealizar haciendo un desarrollo en serie de Taylor alrededor de z1, z2, ..., zp: con lo que donde Vij = E[ (Zi-) (Zj-) ] es la matriz de varianzas/covarianzas. Estaformadeclculodevarianzasseconocecomoleydepropagacindeerroresy puede simplificarse cuando las variables aleatoriasZi tienen covarianza nula, Vij =zi2 para i = j y Vij =0 para ij : 1) (n-) > X < -X(=S2in1 = i 2 (3.2)

,_

zy>)z< -z( + ) >z< ,..., >z< ( y= )z,...,z( y i> z z z