Presentacion Mov Browniano úLtima EdicióN De Julia
Click here to load reader
-
Upload
julia -
Category
Technology
-
view
2.323 -
download
4
Transcript of Presentacion Mov Browniano úLtima EdicióN De Julia
Presentación #2MATH 5400 ProbabilidadDr. Balbino García24 de octubre de 2009
Integrantes del grupo:Wadi Adames RománJulia Crespo RodríguezJoane De Jesús Dátiz
Resumen del Capítulo 10: Movimiento Browniano y Procesos Estacionarios
Libro: “Introduction to Probability Models”
Autor: Sheldon M. Ross
MOVIMIENTO BROWNIANO
Los procesos de Movimiento Browniano, a veces llamados procesos de Wiener, son de
los más importantes procesos estocásticos en la teoría de probabilidad aplicada. Su origen se
encuentra en la Física pero su nombre se debe a Robert Brown, botánico del siglo XIX que lo
descubrió. Dicho movimiento es el que exhibe una partícula pequeña que se encuentra
totalmente inmersa en un líquido o gas. La primera explicación del fenómeno la dio Albert
Einstein en el año 1905. El mostró que el Movimiento Browniano se podría explicar asumiendo
que la partícula era continuamente sujeta al bombardeo de moléculas que se encuentran en su
entorno. Sin embargo la primera definición concisa la presentó Wiener en el 1918.
Empecemos considerando una caminata simétrica al azar en la cual, en cada unidad de
tiempo es igualmente probable que se de un paso hacia la izquierda o hacia la derecha. Esto es
una cadena de Markov con
Pi,i+1= ½ = Pi,i-1, i = 0, + 1,….
Ahora supongamos que aceleramos este proceso dando pasos cada vez más cortos en intervalos
de tiempo más corto. Si tomamos el límite de la manera correcta obtenemos el Movimiento
Browniano.
Si )(tX denota la posición en el tiempo t cuando
[ ] )...()( /1 ttXXxtX ∆++∆=
donde
−−∆−+
=ixquierdalaaespasoésimoielsi
derechalaaesxtamañodepasoésimoielsiX i 1
1
y [ ]tt ∆/ es el entero mayor que es menor o igual a tt ∆/ y donde las iX son independientes
con { } { }2
111 =−=== ii XPXP .
Como [ ] 0=iXE y [ ] 1)( 2
1 == XEXVar i obtenemos que
[ ] 0)( =tXE
∆
∆=t
txtXVar 2)())((
Ahora pasaremos a definir formalmente el movimiento Browniano.
Definición Un proceso estocástico { }0),( ≥ttX se dice que es un movimiento Browniano si
cumple las siguientes condiciones:
1. X(0) = 0
2. { }0),( ≥ttX tiene incrementos estacionarios e independientes.
3. Para cada t > 0, X(t) está normalmente distribuida con media 0 y varianza .2tσ
La interpretación del Movimiento Browniano como el limite de caminatas al azar sugiere que
X(t) debería ser una función continua de t. Como X(t) es normal con media 0 y varianza t, su
función densidad está dada por
txt e
txf 22
2
1)( −=
π
La función densidad conjunta de nn ttparatXtX << ...)(),...( 11 es
[ ] 2/11121
2/
1
21
12
212
1
2
1)()()2(
)()(
2
1exp
),...,(
1
−
−
−
−−
−−++
−−+−
=nn
n
nn
nn
nttttt
tt
xx
tt
xx
t
x
xxf
π
A partir de esta función de densidad, se puede calcular cualquier probabilidad deseada.
Supongamos que se requiere una distribución condicional de X(s) dada por X(t) = B donde s < t.
La densidad condicional está dada por
)(
)()()(
Bf
xBfxfBxf
t
ststs
−= −
{ })(2/)(2/exp 221 stxBsxK −−−−=
−+
−
+−=st
Bx
stsxK
)(2
1
2
1exp 2
2
−−−=
tsts
tBsxK
/)(2
)/(exp
2
3
donde K1, K2 y K3 no dependen de x. Por lo tanto,
[ ] Bt
sBtXsXE ==)()(
[ ] )()()( stt
sBtXsXVar −==
“HITTING TIMES”, VARIABLE MÁXIMA, Y EL PROBLEMA DE LA RUINA DEL
JUGADOR
Sea Ta el primer momento en que el proceso del Movimiento Browniano golpea a.
Cuando a > 0 calcularemos P{Ta < t} considerando P{X(t) > a} y considerando cuando Ta < t ó Ta
> t. Entonces,
}{})({}{})({})({ tTPtTatXPtTPtTatXPatXP aaaa >>≥+≤≤≥=≥
Ahora, si Ta < t entonces el proceso golpea a en algún punto en [0,t] y por simetría es
igualmente probable que esté por encima de a o por debajo de a en el tiempo t. Por tanto,
2
1})({ =≤≥ tTatXP a
Como 0}{})({ =>>≥ tTPtTatXP aa entonces,
∫∞ −=≥=≤a
txa dxe
tatXPtTP 2/2
2
2})({2}{
π
∫∞ −=
ta
y dye/
2/2
2
2
π
donde a > 0. Para a < 0, la distribución de Ta
es, por simetría, la misma que en T-a
. Por tanto,
obtenemos que
∫∞ −=≤
ta
ya dyetTP
/
2/2
2
2}{
π
VARIACIONES EN EL MOVIMIENTO BROWNIANO
Movimiento Browniano con coeficiente de difusión
Se dice que {X(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de
difusión d y parámetro de varianza y2, si
(i) X(0) = 0
(ii) {X(t), t > 0} tiene incremento estacionario e independiente
(iii) X(t) está normalmente distribuido con media t y varianza t 2.
Una definición equivalente es establecer que {B(t), t > 0} sea un Movimiento Browniano
estándar y definir
ttBtX µσ += )()(
Movimiento Browniano Geométrico
Si {Y(t), t > 0} es un proceso de Movimiento Browniano con coeficiente de difusión y
parámetro de varianza p2 entonces el proceso {X(t), t > 0} definido por X(t) = eY(t) se conoce
como Movimiento Browniano Geométrico.
Para s < t consideremos [ ]suuXtXE ≤≤0),()( . Entonces
[ ] [ ] [ ])()()( )(0),(0),()( sYtYtY eEsXsuuYeEsuuXtXE −=≤≤=≤≤
Ahora, la función generadora de momentos de una variable aleatoria normal W está dada por
[ ] [ ] 2/)(2 WVaraWaEaW eeE +=
Ya que Y(t) – Y(s) es normal con media (t – s) y varianza (t – s)( 2, si a = 1 tenemos que
[ ] 2/)()()()( 2σµ ststsYtY eeE −+−− =
De esta forma se obtiene que
[ ] )2/)(( 2
)(0),()( σµ+−=≤≤ stesXsuuXtXE
VALORACIÓN DE OPCIONES
(“Pricing Stock Options”)
Un ejemplo de valoración de opciones
En situaciones en las que el dinero va a ser recibido o pagado en periodos de tiempo
distintos, uno toma en cuenta el tiempo de valor del dinero. Esto es, darle a la cantidad v un
tiempo t en el futuro no es peor que dar v inmediatamente. La razón para esto es que si v es dado
a uno inmediatamente, luego esto puede ser prestado con interés y sería peor que si v al tiempo t.
Para tomar esto en cuenta, supongamos que el valor de tiempo 0, también llamado valor
presente, de la cantidad v al ser ganado en el tiempo t es atve− . La cantidad α también es
conocida como el factor de descuento. En términos de economía, la suposición de la función de
descuento ate− es equivalente a la suposición de que uno puede ganar interés a una razón
compuesta continua de α100 por ciento por unidad de tiempo.
El Teorema del Arbitraje
Considere un experimento cuyo conjunto de posibles resultados es },...2,1{ mS = .
Suponga que hay n pagas disponibles. Si la cantidad x es apostada sobre la paga i, entonces el
retorno )( jxri es devengado si el resultado del experimento es j. En otras palabras )(⋅ir es la
función de retorno para la unidad apostada sobre la paga i. La cantidad apostada sobre una paga
puede ser positiva, negativa o cero. Un esquema de apuesta es un vector ),...,( 1 nxxx = con la
interpretación de que 1x es apostado sobre el activo 1, 2x sobre el activo 2 y nx sobre el activo n.
Si el resultado del experimento es j, entonces el retorno del esquema de apuesta de x es:
x =∑=
n
iii jrx
1
)(
El siguiente teorema establece que existe la probabilidad del vector p ),....( 1 mpp= en el
conjunto de posibles resultados del experimento en el que cada uno de los activos tiene un
retorno esperado igual a 0, o hay un esquema de apuesta que garantiza ganar la apuesta.
Teorema: Exactamente una sola de las siguientes proposiciones es verdadera:
1. Existe un vector de probabilidad p = (p1,….,pm) para el cual
0)(1
=∑=
m
jij jrp , para toda i = 1,…,m
2. Existe un esquema de apuestas x= ),...,( 1 nxx para el cual
∑=
>n
iii jrx
1
0)( , para toda i=1,…,n
En otras palabras si X es el resultado del experimento el teorema nos dice que existe un
vector de probabilidad p para x tal que:
0)]([ =XrE ip , para toda i=1,…,n
o hay un esquema de apuestas que asegura que se gana la apuesta.
Fórmula de Valoración de Opciones Black-Scholes
Asumamos que el precio actual de una reserva es X(0)= 0x , y sea X(t) su precio en el
tiempo t. Nos interesa la reserva en el intervalo de tiempo de 0 a T. Asumamos que el factor de
descuento es α y por lo tanto el valor presente del precio de la reserva es )(tXe at− .
Podemos pensar en el cambio del precio de la reserva en el tiempo como nuestro
experimento. Por lo tanto el resultado del experimento sería la función X(t), donde Tt ≤≤0 .
Además, supongamos que podemos adquirir cualquiera de las N diferentes opciones en el tiempo
0. La opción i que cuesta ic por cada parte, nos da la opción de adquirir partes de la reserva en el
tiempo it para el precio fijo de iK por cada parte, donde i=1,…, N.
Vamos a asumir que queremos determinar los valores de ic para los cuales no existe una
estrategia de apuesta que nos asegure ganar. Si generalizamos el Teorema del Arbitraje, notamos
que no habrá forma segura de ganar si y solo si existe una medida de probabilidad sobre el
conjunto de resultados mediante la cual todos los activos tengan un retorno esperado igual a 0.
Sea P una medida de probabilidad sobre el conjunto de los resultados y consideremos el activo
de observar la reserva durante un tiempo s para entonces adquirir (o vender) una parte con la
intención de venderla (o adquirirla) en el tiempo t, donde Tts ≤<≤0 . El valor presente del
activo para la reserva es:
)(]0),(|)([ sXesuuXtXeE stP
αα −− =≤≤
Supongamos que,
)(0)( tYextX =
donde }0),({ ≤ttY es un proceso de movimiento Browniano con coeficiente de difusión µ y
parámetro de varianza 2σ . Por lo que,
)2/)(( 2
)(]0),()([ σµ+−=≤≤ stesXsuuXtXE
Si escogemos µ y 2σ de forma que,
ασµ =+ 2/2
entonces las ecuaciones anteriores se satisfacen.
Se deduce de lo anterior que si ponemos un precio a una opción para comprar una
porción del inventario en el tiempo t para un precio arreglado K, entonces
]))(([ +− −= KtXeEc tP
ε
donde c es la opción para comprar una porción del inventario. Sin embargo ningún arbitraje es
posible. Como )(0)( tYextX = , donde Y(t) es normal con media tµ y varianza 2σt , obtenemos
que
∫∞ −−−=
)/log(
2/)(
200
22
2
1)(
xK
ttyyt dyet
Kexce σµα
σπ
Haciendo el cambio de variable ))(( 2/1ttyw σµ−= obtenemos,
∫∫∞ −∞ − −=a
w
a
wtwtt dweKdweeexce 2/2/0
22
2
1
2
1
ππσµα
donde,
t
txKa
σµ−= )/log( 0
Ahora,
)(2
1 2/2/ 22
atedwee t
a
wtw −=∫∞ − σφ
πσσ
donde φ es la función estándar de distribución normal.
Utilizando
ασµ =+ 2/2
para la ecuación
)()(2/0
2
aKatexce ttt −−−= + φσφσµα
y dado que ab −= , podemos escribir lo anterior como:
)()(0 bKebtxc tφσφ α−−+=
donde
t
xKttb
σσα )/log(2/ 0
2 −−=
La fórmula anterior depende del precio inicial del inventario 0x , la opción de tiempo t , la
opción de precio K , el factor de descuento α y el valor 2σ , donde para cualquier valor de 2σ
no hay arbitraje posible. Sin embargo esta no es la única ecuación para la que esto es posible.
Supongamos que }0),({ TttX ≤≤ es un proceso estocástico cualquiera que satisface ts < ,
)(]0),()([ sXesuuXtXeE st αα −− =≤≤
Dado que
]))(([ +− −= KtXeEc tα
se comprueba que ningún arbitraje es posible.
Otro ejemplo de un proceso estocástico en el que no hay arbitraje posible es el siguiente.
Supongamos que tenemos una sucesión de variables aleatorias independientes que tienen en
común la media µ y supongamos que este es un proceso independiente de }0),({ ≥ttN , el cual
es un proceso de Poisson con razón λ . Dado que utilizando la propiedad de la identidad,
tenemos que,
∏ ∏= +=
=)(
1
)(
1)(0)(
sN
i
tN
sNjji YYxtX
y asumiendo el incremento independiente de un proceso de Poisson, tenemos que para ts < ,
[ ]
=≤≤ ∏
+=
)(
1)(
)(0),()(tN
sNjjYEsXsuuXtXE
Condicionando la cantidad de eventos entre s y t obtenemos que,
)1)(()(
1)(
µλ −−−
+=
=
∏ st
tN
sNjj eYE
Por lo tanto si seleccionamos λ y µ tales que
αµλ −=− )1( ,
las ecuaciones anteriores se satisfacen.
“WHITE NOISE”
Sea { }0),( ≥ttX un proceso de movimiento Browniano y f una función que tiene una
derivada continua en la región [a, b]. El integral ∫b
atdXtf )()( se define como:
∑=
−−∞→
≡ −∫→− −
n
iiii
ntdXtf tXtXtf
ii tt
b
a 111)()( )]()()[(lim
0)max( 1
donde bttta n =<<<= ...10 es una partición de la región [a, b]. Usando la identidad
∑=
−−−=∑=
−− −−n
iiiiaXafbXbf
n
iiii tftftXtXtXtf
11)()()()(
111 )]()()[()]()()[(
vemos que:
∫∫ −−=b
a
b
atdftXaXafbXbftdXtf )()()()()()()()(
Utilizando el lado derecho de la ecuación anterior obtenemos, asumiendo el intercambio
de expectación y del límite, que:
0)()( =
∫
b
atdXtfE
Además,
∑∑=
−−=
−− −=
−
n
iiii
n
tiii tttftXtXtfVar
111
2
111 ))((])()()[(
donde la igualdad se debe a los incrementos independientes del movimiento Browniano.
Tomando los limites de lo anterior tenemos que,
∫∫ =
b
a
b
adttftdXtfVar )()()( 2
PROCESOS GAUSSIANOS
Un proceso estocástico 0),( ≥ttX es llamado Proceso Gaussiano o Normal, si
)(),...,( 1 ntXtX es una distribución normal multivariable para toda ntt ,...,1. Si )(),...,( 1 ntXtX
es
un Proceso de Movimiento Browniano entonces, )(),...,(),( 21 ntXtXtX puede ser expresado
como una combinación linear de variables independientes normales aleatorias
)()(),...,()(),()(),( 123121 −−−− nn tXtXtXtXtXtXtX por lo que el Movimiento Browniano es un
Proceso Gaussiano.
Una distribución normal multivariable es determinada completamente por el valor de la
media marginal y el valor de la covarianza siguiendo un movimiento Browniano estándar que
puede ser definido como un Proceso Gaussiano con [ ] 0)( =tXE y ts ≤ donde,
)()()(),(())(),(( sXtXsXsXCovtXsXCov −+=
ssXsXCovsXtXsXCovsXsXCov ==−+= ))(),(())()(),(()(),((
considerando que ssXVar =))(( .
Sea }0),({ ≥ttX un proceso de movimiento Browniano estándar y consideremos los
valores del proceso entre 0 y 1 condicional en 0)1( =X . Observemos un proceso estocástico
condicional }0)1(10),({ =≤≤ XttX . Como la distribución condicional es multivariable normal
se sigue que este proceso condicional, conocido como un puente Browniano, es a su vez un
proceso Gaussiano. Podemos calcular la función de varianza de la siguiente manera:
[ ] 00)1()( ==XsXE para 1<s obteniendo para 1<< ts
)1(]0)1()()([]0)1())(),([( tsXtXsXEXtXsXCov −====
Un puente Browniano puede ser definido como un proceso Gaussiano con valor de media
0 y función de covarianza tsts ≤− ),1( . Si }0),({ ≥ttX es un Movimiento Browniano, entonces
el proceso }0),({ ≥ttZ definido por
∫=t
dssXtZ0
)()(
es llamado Movimiento Browniano Integrado.
PROCESOS ESTACIONARIOS Y PROCESOS ESTACIONARIOS DÉBILES
(“Stationary and Weakly Stationary Processes”)
Un proceso estocástico }0),({ ≥ttX es un proceso estacionario si para toda nttsn ,...,,,
el vector aleatorio )(),...,( 1 ntXtX y )(),...,( 1 stXstX n ++ tiene la misma distribución
conjunta. En otras palabras, un proceso es estacionario si en la búsqueda de cualquier punto s
como el origen, el proceso tiene las mismas leyes de probabilidad. Dos ejemplos de procesos
estacionarios son:
(i) Una cadena de Markov ergódica de tiempo continuo }0),({ ≥ttX cuando
0,})0({ ≥== jPjXP j donde }0,{ ≥pPj son los límites de probabilidad.
(ii) }0),({ ≥ttX cuando 0),()()( ≥−+= ttNLtNtX donde 0>L es una
constante fija y }0),( ≥ttN es un proceso de Poisson con razón λ.
Algunos de los ejemplos en los cuales se ven reflejados los procesos estacionarios son:
(i) “ The Random Telegraph Signal Process”
Con una media 0)1([)]([ )(0 =−= tNXEtXE
y una función de covarianza sestXtXEstXtXCov λ2)]()([)](),([ −=+=+
(ii) Proceso de Ornstein – Uhlenbeck
(iii) Sea }0),({ ≥ttX un proceso de movimiento Browniano estándar y definido para
0>α , )()( 2/ tt eXetV αα−= con una media 0)]([ =tVE y una función de
covarianza 2/)](),([ sestVtVCov α−=+ . A {V(t), t > 0} se le conoce como Proceso
de Ornstein – Uhlenbeck.
La condición para que un proceso sea estacionario es bastante estricta y se define el
proceso }0),({ ≥ttX como un proceso estacionario de segundo orden o un proceso estacionario
débil si ctXE =)]([ y )](),([ stXtXCov + , lo cual no depende del tiempo t. Un proceso
estacionario es de segundo orden si los primeros dos momentos de X(t) son el mismo para toda t
y la covarianza entre X(s) y X(t) dependen solamente de st − . Para dicho proceso tenemos,
)](),([)( stXtXCovsR += . La distribución finita dimensional de un proceso Gaussiano es
determinada por su media y varianza si está dado que el proceso Gaussiano estacionario de
segundo orden es estacionario.
Por otro lado, se encuentran los procesos estacionarios de segundo orden no
estacionarios. Un ejemplo de estos es el Proceso Auto-regresivo. Sea ,...,, 10 ZZ una variable
aleatoria incorrelativa con 0,0][ ≥= nZE n y
≥=−
=1
0)1/()(
2
22
n
nZVar n σ
λσ
donde 12 <λ . Se define
1,
,
1
00
≥+==
− nZXX
ZX
nnn λ
El proceso }0,{ ≥nX n es llamado un proceso auto-regresivo de primer orden. Este indica que
el estado en el tiempo n (esto es Xn) es un múltiplo constante del estado de tiempo n - 1 más
un error aleatorio llamado Zn .
ANÁLISIS ARMÓNICO DE PROCESOS ESTACIONARIOS DÉBILES (“Harmonic Analysis of Weakly Stationary Processes”)
Sean { }∞<<−∞ ttX ),( y { }∞<<−∞ ttY ),( procesos estocásticos tales que
∫∞
∞−−= dsshstXtY )()()( .
Al { })(tX se le conoce como el proceso de entrada y a { })(tY como el proceso de salida. La
función h se llama la función de respuesta a impulsos. Esta ecuación es un tipo de filtro lineal
invariante, donde la palabra filtro se debe a que podemos pensar que el proceso de entrada {X(t)}
está pasando a través de algún medio y luego es filtrado para así resultar en el proceso de salida
{Y(t)}. Es un filtro lineal ya que si los procesos de entrada { })(1 tX , { })(2 tX resultan en los
procesos de salida { })(1 tY , { })(2 tY entonces el proceso de entrada { })()( 21 tbXtaX + resulta en el
proceso de salida { })()( 21 tbYtaY + . Por último, es de tiempo invariante pues el proceso
{ })( τ+tX , donde τ es una constante, resulta en el proceso { })( τ+tY , i.e. si atrasamos (o
adelantamos) el proceso de entrada un tiempo τ, entonces el proceso de salida se atrasa (o
adelanta) un tiempo τ.
Supongamos que { }∞<<−∞ ttX ),( es un proceso estacionario débil donde 0)]([ =tXE
y con una función de covarianza )](),([)( stXtXCovsRX += . Queremos ahora determinar el
valor esperado y la covarianza correspondientes al proceso de salida { }∞<<−∞ ttY ),( . Ahora,
como ∫∞
∞−∞<dssh )( y como se puede demostrar que existe alguna M < ∞ lo suficientemente
grande tal que MtXE <)( , entonces
∫∫∞
∞−
∞
∞−=−=
−= 0)()]([)()()]([ dsshstXEdsshstXEtYE .
De manera análoga, se sigue que
212111222112 )()()()](),([)( dsdsshshststRtYtYCovttR XY +−−==− ∫∫ (*)
Nótese que esto significa que )](),([ 21 tYtYCov depende de t1 y t2 solo a través de t2 – t1. Por lo
tanto { })(tY es un proceso estacionario débil.
Ahora, esta última ecuación para )( 12 ttRY − es mejor expresarla en términos de
transformadas de Fourier para RX y RY. Sean
∫ −= dssRewR Xiws
X )()(~
,
∫ −= dssRewR Yiws
Y )()(~
y
∫ −= dsshewh iws )()(~
las transformadas de Fourier de RX, RY y h respectivamente. La función )(~
wR X se conoce
como la densidad espectral de poder del proceso { })(tX . De (*) se obtiene que
)()()()(~~~~
whwhwRwR XY −= .
Ahora mediante la fórmula xixe ix sincos += y xixe ix sincos −=− se tiene que
[ ] [ ] 2~222~~
)()()sin()()cos()()()( whdseshdswsshdswsshwhwh iws ==+=− ∫∫∫ − .
Por lo tanto
2~~~
)()()( whwRwR XY = .
BIBLIOGRAFÍA
Ross, Sheldon M. (2000). Introduction to Probability Models. Seventh Edition. Academic Press.
Págs. 549 - 584.