10.3. Convergência forte do método de Euler-Maruyama

No caso determinístico, de uma equação diferencial

dxdt=f(t,x), \frac{\mathrm{d}x}{\mathrm{d}t} = f(t, x),

com condição inicial x(0)=x0,x(0) = x_0, o método de Euler

xjn=xj1n+Δtf(tj1xj1n),xjnj=0=x0, x_{j}^n = x_{j-1}^n + \Delta t f(t_{j-1} x_{j-1}^n), \qquad x_j^n|_{j = 0} = x_0,

em uma malha temporal uniforme tj=jT/n,t_j = jT/n, j=0,,n,j = 0, \ldots, n, com Δt=T/n,\Delta t = T/n, converge uniformemente, no intervalo [0,T],[0, T], para a solução do problema de valor inicial. Além disso, essa convergência é de ordem um. Mais precisamente, existem C>0C > 0 e δ>0\delta > 0 tais que

maxjx(tj)xjCΔt,0<Δtδ. \max_{j}|x(t_j) - x_j| \leq C \Delta t, \qquad 0 < \Delta t \leq \delta.

Isso sob a hipótese de ff ser localmente Lipschitz contínuas.

Por outro lado, no caso estocástico, com um ruído multiplicativo g=g(t,Xt),g = g(t, X_t),

dXt=f(t,Xt)dt+g(t,Xt)dWt,t0, \mathrm{d}X_t = f(t, X_t)\mathrm{d}t + g(t, X_t)\mathrm{d}W_t, \qquad t \geq 0,

com uma condição inicial

Xtt=0=X0, \left.X_t\right|_{t = 0} = X_0,

a convergência forte é apenas de ordem 1/21/2 e isso sob a hipótese mais exigente de ff e gg serem globalmente Lipschitz contínuas. Mas é importante ressaltar que isso acontece no caso multiplicativo. Se o ruído for aditivo, g=g(t,Xt)=g(t),g = g(t, X_t) = g(t), então ainda temos a convergência forte de ordem 1.1.

A diferença, no caso multiplicativo, vem, essencialmente, do fato de que, na equação estocástica, além dos termos de erro da ordem de Δt,\Delta t, há termos da ordem de ΔW.\Delta W. Em um sentido apropriado, vale (ΔW)2Δt,(\Delta W)^2 \sim \Delta t, o que nos dá um erro da ordem de (Δt)1/2.(\Delta t)^{1/2}.

Outro ponto importante é que, no caso discreto, a constante CC que aparece na ordem de convergência depende da condição inicial e explora o fato de que, com a condição inicial fixa, podemos limitar a solução exata e a aproximação. Por outro lado, no caso estocástico, considera-se, implicitamente, diversas condições iniciais X0(ω)X_0(\omega) e não temos esse controle, por isso a necessidade de se assumir que os termos ff e gg sejam globalmente Lipschitz contínuos. Esse problema aparece mesmo no caso de ruído aditivo e apenas ff não globalmente Lipschitz.

Por último, um ponto um pouco mais técnico, é que, enquanto no caso discreto estimamos diretamente a diferença x(tj)xjn,|x(t_j) - x_j^n|, no caso estocástico precisamos nos ancorar na isometria de Itô, de modo que o mais natural é olharmos para E[XtjXjn2].\mathbb{E}\left[|X_{t_j} - X_j^n|^2 \right].

Em resumo, a hipótese de continuidade Lipschitz global é para garantir que o método convirja. E a presença de dWtdt\mathrm{d}W_t \sim \sqrt{\mathrm{d}t} nos dá uma convergência forte apenas de ordem 1/2,1/2, no caso multiplicativo. Vejamos os detalhes.

Convergência no caso determinístico

Primeiramente, temos que

x(tj)=x(tj1)+tj1tjx(s)  ds=x(tj1)+Δtx(tj1)+tj1tj(x(s)x(tj1))  ds. x(t_j) = x(t_{j-1}) + \int_{t_{j-1}}^{t_j} x'(s)\;\mathrm{d}s = x(t_{j-1}) + \Delta t x'(t_{j-1}) + \int_{t_{j-1}}^{t_j} (x'(s) - x'(t_{j-1}))\;\mathrm{d}s.

De acordo com a equação diferencial,

x(tj)=x(tj1)+Δtf(tj1,x(tj1))+tj1tj(f(s,x(s))f(tj1,x(tj1)))  ds. x(t_j) = x(t_{j-1}) + \Delta t f(t_{j-1}, x(t_{j-1})) + \int_{t_{j-1}}^{t_j} (f(s, x(s)) - f(t_{j-1}, x(t_{j-1})))\;\mathrm{d}s.

Assim, nos pontos j=1,,nj = 1, \ldots, n da malha,

x(tj)xjx(tj1)xj1+Δtf(tj1,x(tj1))f(tj1,xj1)+tj1tjf(s,x(s))f(tj1,x(tj1))  ds. \begin{align*} |x(t_j) - x_j| & \leq | x(t_{j-1}) - x_{j-1} | + \Delta t |f(t_{j-1}, x(t_{j-1})) - f(t_{j-1}, x_{j-1})| \\ & \quad + \int_{t_{j-1}}^{t_j} |f(s, x(s)) - f(t_{j-1}, x(t_{j-1}))|\;\mathrm{d}s. \end{align*}

Como a solução é contínua, ela é limitada no intervalo [0,T],[0, T], i.e.

R0=max0tTx(t)<. R_0 = \max_{0\leq t \leq T}|x(t)| < \infty.

Seja R>R0R > R_0 e considere as constantes de Lipschitz L1=L1(R)L_1 = L_1(R) e L2=L2(R)L_2 = L_2(R) tais que

f(t,x)f(s,y)L1(R)ts+L2(R)xy,0t,sT,  x,y,  x,yR. |f(t, x) - f(s, y)| \leq L_1(R)|t - s| + L_2(R)|x - y|, \quad \forall 0 \leq t, s \leq T, \;\forall x, y, \; |x|, |y| \leq R.

Assuma, por indução, que xj1R.|x_{j-1}| \leq R. Com isso,

x(tj)xjx(tj1)xj1+L2Δtx(tj1)xj1+tj1tj(L1stj1+L2x(s)x(tj1))  dsx(tj1)xj1+L2Δtx(tj1)xj1+L12tjtj12+L2tj1tjx(s)x(tj1)  ds. \begin{align*} |x(t_j) - x_j| & \leq |x(t_{j-1}) - x_{j-1}| + L_2 \Delta t |x(t_{j-1}) - x_{j-1}| \\ & \quad +\int_{t_{j-1}}^{t_j} \left( L_1 |s - t_{j-1}| + L_2 |x(s) - x(t_{j-1})|\right)\;\mathrm{d}s \\ & \leq |x(t_{j-1}) - x_{j-1}| + L_2 \Delta t |x(t_{j-1}) - x_{j-1}| \\ & \quad + \frac{L_1}{2}|t_j - t_{j-1}|^2 + L_2 \int_{t_{j-1}}^{t_j}|x(s) - x(t_{j-1})|\;\mathrm{d}s. \end{align*}

O integrando do último termo pode ser estimado por

tj1tjx(s)x(tj1)  dstj1tjtj1sx(τ)  dτ  dstj1tjtj1sf(τ,x(τ))  dτ  ds+tj1tjtj1s(f(τ,x(τ))f(τ,0)+f(τ,0))  dτ  ds+tj1tjtj1s(L2x(τ)+f(τ,0))  dτ  ds(L1R0+C0)Δt2, \begin{align*} \int_{t_{j-1}}^{t_j} |x(s) - x(t_{j-1})|\;\mathrm{d}s & \leq \int_{t_{j-1}}^{t_j} \int_{t_{j-1}}^s |x'(\tau)|\;\mathrm{d}\tau\;\mathrm{d}s \\ & \leq \int_{t_{j-1}}^{t_j} \int_{t_{j-1}}^s |f(\tau, x(\tau))|\;\mathrm{d}\tau\;\mathrm{d}s \\ & \quad + \int_{t_{j-1}}^{t_j} \int_{t_{j-1}}^s \left(|f(\tau, x(\tau)) - f(\tau, 0)| + |f(\tau, 0)|\right)\;\mathrm{d}\tau\;\mathrm{d}s \\ & \quad + \int_{t_{j-1}}^{t_j} \int_{t_{j-1}}^s \left(L_2|x(\tau)| + |f(\tau, 0)|\right) \;\mathrm{d}\tau\;\mathrm{d}s \\ & \leq (L_1 R_0 + C_0) \Delta t^2, \end{align*}

onde

C0=max0tTf(τ,0). C_0 = \max_{0 \leq t \leq T} |f(\tau, 0)|.

Assim,

x(tj)xj(1+L2Δt)x(tj1)xj1+MΔt2, |x(t_j) - x_j| \leq (1 + L_2\Delta t)|x(t_{j-1}) - x_{j-1}| + M \Delta t^2,

onde

M=L12+L1R0+C0. M = \frac{L_1}{2} + L_1 R_0 + C_0.

Iterando essa estimativa, chegamos a

x(tj)xj(1+L2Δt)2x(tj2)xj2+MΔt2(1+(1+LΔt))(1+L2Δt)jx(t0)x0+MΔt2(1+(1+L2Δt)++(1+L2Δt)j1). \begin{align*} |x(t_j) - x_j| & \leq (1 + L_2\Delta t)^2|x(t_{j-2}) - x_{j-2}| + M \Delta t^2(1 + (1 + L\Delta t)) \\ & \leq \ldots \\ & \leq (1 + L_2\Delta t)^j|x(t_0) - x_0| + M \Delta t^2(1 + (1 + L_2\Delta t) + \ldots + (1 + L_2\Delta t)^{j-1}). \end{align*}

Usando que 1+aea,1 + a \leq e^a, para todo a0,a \geq 0, temos

(1+L2Δt)jeL2jΔt=eL2tj. (1 + L_2\Delta t)^j \leq e^{L_2j\Delta t} = e^{L_2 t_j}.

Além disso,

1+(1+L2Δt)++(1+L2Δt)j1=(1+L2Δt)j1(1+L2Δt)1=1L2Δt(1+L2Δt)j1L2ΔteL2tj. 1 + (1 + L_2\Delta t) + \ldots + (1 + L_2\Delta t)^{j-1} = \frac{(1 + L_2\Delta t)^j - 1}{(1 + L_2\Delta t) - 1} = \frac{1}{L_2\Delta t}(1 + L_2\Delta t)^j \leq \frac{1}{L_2\Delta t}e^{L_2 t_j}.

Portanto,

x(tj)xjeL2Tx(t0)x0+ML2eL2TΔt. |x(t_j) - x_j| \leq e^{L_2T}|x(t_0) - x_0| + \frac{M}{L_2}e^{L_2T}\Delta t.

Considerando que x0=x(t0),x_0 = x(t_0), obtemos

x(tj)xjML2eL2TΔt. |x(t_j) - x_j| \leq \frac{M}{L_2}e^{L_2T}\Delta t.

Lembrando que L2=L2(R),L_2=L_2(R), para Δt\Delta t suficientemente pequeno tal que

ML2(R)eL2(R)TΔtRR0, \frac{M}{L_2(R)}e^{L_2(R)T}\Delta t \leq R - R_0,

podemos garantir que

xjR, |x_j| \leq R,

obtendo, por indução, que

maxj=0,,nxjnR,maxj=0,,nx(tj)xjML2eL2TΔt, \max_{j=0, \ldots, n}|x_j^n| \leq R, \qquad \max_{j=0, \ldots, n} |x(t_j) - x_j| \leq \frac{M}{L_2}e^{L_2T}\Delta t,

mostrando que o método de Euler é de primeira ordem.

Convergência no caso aleatório

Convergência no caso estocástico multiplicativo

Considere, agora, a equação estocástica

dXt=f(t,Xt)dt+g(t,Xt)dWt,t0, \mathrm{d}X_t = f(t, X_t)\mathrm{d}t + g(t, X_t)\mathrm{d}W_t, \qquad t \geq 0,

com uma condição inicial

Xtt=0=X0. \left.X_t\right|_{t = 0} = X_0.

Nesse caso, temos

Xt=X0+0tf(s,Xs)  ds+0tg(s,Xs)  dWs. X_t = X_0 + \int_0^t f(s, X_s)\;\mathrm{d}s + \int_0^t g(s, X_s)\;\mathrm{d}W_s.

Já a aproximação pelo método de Euler-Maruyama é dada por

Xjn=Xj1n+f(tj1,Xj1n)Δt+g(tj1,Xj1n)ΔWj, X_j^n = X_{j-1}^n + f(t_{j-1}, X_{j-1}^n) \Delta t + g(t_{j-1}, X_{j-1}^n) \Delta W_j,

onde X0n=X0X_0^n = X_0 e ΔWj.\Delta W_j.

Assumimos ff e gg globalmente Lipschitz contínuas em xx e globalmente Hölder contínuas em t.t. Mais precisamente, assumimos que

f(t,x)f(t,y)Lfxy |f(t, x) - f(t, y)| \leq L_f|x - y|

e

f(t,x)f(s,x)Hf(1+x)ts1/2,g(t)g(s)Hg(1+x)ts1/2, |f(t, x) - f(s, x)| \leq H_f(1 + |x|)|t - s|^{1/2}, \quad |g(t) - g(s)| \leq H_g(1 + |x|)|t - s|^{1/2},

para x,yRx, y\in\mathbb{R} e 0t,sT,0\leq t, s \leq T, onde Hf,H_f, Lf,L_f, Hg,H_g, Lg>0L_g > 0 são constantes apropriadas.

Para uma estimativa adequada do termo estocástico, precisamos da isometria de Itô, e para isso precisamos trabalhar com a média quadrática. Mais precisamente, vamos estimar

maxi=0,,nE[XtiXin2]. \max_{i = 0, \ldots, n} \mathbb{E}\left[ |X_{t_i} - X_i^n|^2\right].

Em relação à média quadrática, lembremos das estimativas

E[Xt2]MT, \mathbb{E}\left[X_t^2\right] \leq M_T,

e

E[Xt+τXt2]CT2τ, \mathbb{E}\left[ |X_{t+\tau} - X_t|^2\right] \leq C_T^2\tau,

para 0tt+τT,0\leq t \leq t + \tau \leq T, para constantes apropriadas CT,MT>0.C_T, M_T > 0.

Agora, por conta também da necessidade de trabalharmos com a média quadrática, devemos considerar uma expressão global para o erro, escrevendo

Xtj=X0+0tjf(s,Xs)  ds+0tjg(s,Xs)  dWs X_{t_j} = X_0 + \int_0^{t_j} f(s, X_s)\;\mathrm{d}s + \int_0^{t_j} g(s, X_s)\;\mathrm{d}W_s

e

Xjn=X0+i=1jf(ti1,Xi1n)Δti1+i=1jg(ti1,Xi1n)ΔWi1. X_j^n = X_0 + \sum_{i=1}^j f(t_{i-1}, X_{i-1}^n)\Delta t_{i-1} + \sum_{i=1}^j g(t_{i-1}, X_{i-1}^n)\Delta W_{i-1}.

Não funciona estimarmos de maneira recursiva, pois, por conta da desigualdade (a1++ak)2k(a12++ak2),(a_1 + \cdots + a_k)^2 \leq k(a_1^2 + \cdots + a_k^2), teríamos algo do tipo djC1dj1+C0,d_j \leq C_1d_{j-1} + C_0, com C>1,C>1, de forma que as iterações nos dariam um termo acumulado Cj,C^j, que explode à medida que a malha é refinada, pois não está acompanhado do passo de tempo Δt.\Delta t.

Assim, escrevendo o erro de t=0t=0 a t=tj,t=t_j, temos

XtjXjn=0tjf(s,Xs)  ds+0tjg(s,Xs)  dWsi=1jf(ti1,Xi1n)Δti1i=1jg(ti1,Xi1n)ΔWi1. X_{t_j} - X_j^n = \int_0^{t_j} f(s, X_s)\;\mathrm{d}s + \int_0^{t_j} g(s, X_s)\;\mathrm{d}W_s - \sum_{i=1}^j f(t_{i-1}, X_{i-1}^n) \Delta t_{i-1} - \sum_{i=1}^j g(t_{i-1}, X_{i-1}^n) \Delta W_{i-1}.

Podemos escrever isso na forma

XtjXjn=0tj(f(s,Xs)f(tn(s),Xtn(s)))  ds+0tj(g(s,Xs)g(tin(s),Xtn(s)))  dWs+i=1j(f(ti1,Xti1)f(ti1,Xi1n))Δti1+i=1j(g(ti1,Xti1)g(ti1,Xi1n))ΔWi1, \begin{align*} X_{t_j} - X_j^n & = \int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))\;\mathrm{d}s + \int_0^{t_j} (g(s, X_s) - g(t_{i^n(s)}, X_{t^n(s)}))\;\mathrm{d}W_s \\ & \quad + \sum_{i=1}^j (f(t_{i-1}, X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n)) \Delta t_{i-1} + \sum_{i=1}^j (g(t_{i-1}, X_{t_{i-1}}) - g(t_{i-1}, X_{i-1}^n)) \Delta W_{i-1}, \end{align*}

onde tnt^n e ini^n são as funções de malha

in(t)=maxj=0,,n{j;  tjt}, i^n(t) = \max_{j=0, \ldots, n}\{j; \;t_j \leq t\},

e

tn(t)=tin(t)=max{tit;  i=0,,n}, t^n(t) = t_{i^n(t)} = \max\{t_i \leq t; \; i = 0, \ldots, n\},

que nos dão o índice in(t)i^n(t) do ponto da malha que está mais próximo e à esquerda de um instante tt e o ponto correspondente tn(t)=tin(t)t^n(t) = t_{i^n(t)} da malha.

Elevando ao quadrado e usando que (a1++a4)24(a12++a42),(a_1 + \ldots + a_4)^2 \leq 4(a_1^2 + \ldots + a_4^2),

(XtjXjn)2=4(0tj(f(s,Xs)f(tn(s),Xtn(s)))  ds)2+4(0tj(g(s,Xs)g(tn(s),Xtn(s)))  dWs)2+4(i=1j(f(ti1,Xti1)f(ti1,Xi1n))Δti1)+4(i=1j(g(ti1,Xti1)g(ti1,Xi1n))ΔWi1)2. \begin{align*} \left(X_{t_j} - X_j^n\right)^2 & = 4\left(\int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))\;\mathrm{d}s\right)^2 + 4\left(\int_0^{t_j} (g(s, X_s) - g(t^n(s), X_{t^n(s)}))\;\mathrm{d}W_s\right)^2 \\ & \quad + 4\left(\sum_{i=1}^j (f(t_{i-1}, X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n)) \Delta t_{i-1}\right) + 4\left(\sum_{i=1}^j (g(t_{i-1}, X_{t_{i-1}}) - g(t_{i-1}, X_{i-1}^n)) \Delta W_{i-1}\right)^2. \end{align*}

Usando a desigualdade de Cauchy-Schwartz na primeira integral e no primeiro somatório, obtemos

(XtjXjn)24tj0tj(f(s,Xs)f(tn(s),Xtn(s)))2  ds+4(0tj(g(s,Xs)g(tn(s),Xtn(s)))  dWs)2+4tji=1j(f(ti1,Xti1)f(ti1,Xi1n))2Δti1+4(i=1j(g(ti1,Xti1)g(ti1,Xi1n))ΔWi1)2. \begin{align*} \left(X_{t_j} - X_j^n\right)^2 & \leq 4t_j\int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))^2\;\mathrm{d}s + 4\left(\int_0^{t_j} (g(s, X_s) - g(t^n(s), X_{t^n(s)}))\;\mathrm{d}W_s\right)^2 \\ & \quad + 4t_j\sum_{i=1}^j (f(t_{i-1}, X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n))^2 \Delta t_{i-1} + 4\left(\sum_{i=1}^j (g(t_{i-1}, X_{t_{i-1}}) - g(t_{i-1}, X_{i-1}^n)) \Delta W_{i-1}\right)^2. \end{align*}

Tomando o valor esperado e usando a isometria de Itô na integral e no somatório (que é a isometria de Itô numa função escada e que também pode ser deduzido diretamente pelas independências dos saltos em intervalos distintos e pale condição de não antecipação),

E[(XtjXjn)2]4tj0tjE[(f(s,Xs)f(tn(s),Xtn(s)))2]  ds+40tjE[(g(s,Xs)g(tn(s),Xtn(s)))2]  ds+4tji=1jE[(f(tn(s),Xti1)f(ti1,Xi1n))2]Δti1+4i=1jE[(g(ti1,Xti1)g(ti1,Xi1n))2]Δti1. \begin{align*} \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right] & \leq 4t_j\int_0^{t_j} \mathbb{E}\left[(f(s, X_s) - f(t^n(s), X_{t^n(s)}))^2\right]\;\mathrm{d}s + 4\int_0^{t_j} \mathbb{E}\left[(g(s, X_s) - g(t^n(s), X_{t^n(s)}))^2\right]\;\mathrm{d}s \\ & \quad + 4t_j\sum_{i=1}^j \mathbb{E}\left[(f(t^n(s), X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n))^2\right] \Delta t_{i-1} + 4\sum_{i=1}^j \mathbb{E}\left[(g(t_{i-1}, X_{t_{i-1}}) - g(t_{i-1}, X_{i-1}^n))^2\right] \Delta t_{i-1}. \end{align*}

Os dois primeiros termos integrais podem ser estimados por

0tjE[(f(s,Xs)f(tn(s),Xtn(s)))2]  dsi=1jti1ti(2Hf2sti1(1+E[Xs2])+2Lf2E[XsXti12])  ds(2Hf2(1+MT)+2Lf2CT)i=1jti1ti(sti1)  ds(Hf2(1+MT)+Lf2CT)i=1j(titi1)tj(Hf2(1+MT)+Lf2CT)maxi(titi1)T(Hf2(1+MT)+Lf2CT)Δt. \begin{align*} \int_0^{t_j} \mathbb{E}\left[(f(s, X_s) - f(t^n(s), X_{t^n(s)}))^2\right]\;\mathrm{d}s & \leq \sum_{i=1}^j\int_{t_{i-1}}^{t_i} \left(2H_f^2|s - t_{i-1}|(1 + \mathbb{E}\left[X_s^2\right]) + 2L_f^2\mathbb{E}\left[|X_s - X_{t_{i-1}}|^2\right]\right)\;\mathrm{d}s \\ & \leq \left(2H_f^2(1 + M_T) + 2L_f^2C_T\right)\sum_{i=1}^j\int_{t_{i-1}}^{t_i} (s - t_{i-1}) \;\mathrm{d}s \\ & \leq \left(H_f^2(1 + M_T) + L_f^2C_T\right)\sum_{i=1}^j(t_i - t_{i-1}) \\ & \leq t_j\left(H_f^2(1 + M_T) + L_f^2C_T\right)\max_i (t_i - t_{i-1}) \\ & \leq T\left(H_f^2(1 + M_T) + L_f^2C_T\right)\Delta t. \end{align*}

e, analogamente,

0tjE[(g(s,Xs)g(tn(s),Xtn(s)))2]  dsT(Hg2(1+MT)+Lg2CT)Δt. \int_0^{t_j} \mathbb{E}\left[(g(s, X_s) - g(t^n(s), X_{t^n(s)}))^2\right]\;\mathrm{d}s \leq T\left(H_g^2(1 + M_T) + L_g^2C_T\right)\Delta t.

Já os somatórios nos dão

i=1jE[(f(ti1,Xti1)f(ti1,Xi1n))2]Δti1Lf,22i=1jE[(Xti1Xi1n)2]Δti1 \sum_{i=1}^j \mathbb{E}\left[(f(t_{i-1}, X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n))^2\right] \Delta t_{i-1} \leq L_{f, 2}^2\sum_{i=1}^j \mathbb{E}\left[(X_{t_{i-1}} - X_{i-1}^n)^2\right] \Delta t_{i-1}

e

i=1jE[(g(ti1,Xti1)g(ti1,Xi1n))2]Δti1Lg,22i=1jE[(Xti1Xi1n)2]Δti1. \sum_{i=1}^j \mathbb{E}\left[(g(t_{i-1}, X_{t_{i-1}}) - g(t_{i-1}, X_{i-1}^n))^2\right] \Delta t_{i-1} \leq L_{g, 2}^2\sum_{i=1}^j \mathbb{E}\left[(X_{t_{i-1}} - X_{i-1}^n)^2\right] \Delta t_{i-1}.

Juntando as estimativas,

E[(XtjXjn)2]4tj(Lf,12+Lf,22CT)Δt+4(Lg,12+Lg,22CT)Δt+4tjLf,22i=1jE[(Xti1Xi1n)2]Δti1+4Lg,22i=1jE[(Xti1Xi1n)2]Δti1. \begin{align*} \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right] & \leq 4t_j\left(L_{f,1}^2 + L_{f, 2}^2C_T\right)\Delta t + 4\left(L_{g,1}^2 + L_{g, 2}^2C_T\right)\Delta t \\ & \quad + 4t_jL_{f, 2}^2\sum_{i=1}^j \mathbb{E}\left[(X_{t_{i-1}} - X_{i-1}^n)^2\right] \Delta t_{i-1} + 4L_{g, 2}^2\sum_{i=1}^j \mathbb{E}\left[(X_{t_{i-1}} - X_{i-1}^n)^2\right] \Delta t_{i-1}. \end{align*}

Ou seja,

E[(XtjXjn)2]C2Δt+2Li=1jE[(Xti1Xi1n)2]Δti1, \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right] \leq C^2 \Delta t + 2L \sum_{i=1}^j \mathbb{E}\left[(X_{t_{i-1}} - X_{i-1}^n)^2\right] \Delta t_{i-1},

para C,L>0C, L > 0 apropriadas. Pela desigualdade de Gronwall discreta, isso nos dá

E[(XtjXjn)2]C2e2LtjΔt. \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right] \leq C^2e^{2Lt_j}\Delta t.

Considerando a norma forte, obtemos

E[XtjXjn]E[(XtjXjn)2]1/2CeLtjΔt1/2. \mathbb{E}\left[\left|X_{t_j} - X_j^n\right|\right] \leq \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right]^{1/2} \leq Ce^{Lt_j}\Delta t^{1/2}.

mostrando que o método de Euler-Maruyama é de ordem forte 1/2.1/2.

Convergência no caso estocástico com ruído aditivo

Quando g=g(t)g=g(t) não depende de xx e quando f=f(t,x)f=f(t, x) e g=g(t)g=g(t) são mais suaves, podemos mostrar que a convergência forte é, na verdade, de order 1. Mais precisamente, pedimos que ff e gg sejam continuamente diferenciáveis em tt e que ff seja duas vezes continuamente diferenciáveis em x,x, com limitações uniformes,

(tf)(t,x)Hf,(xf)(t,x)Lf,(xxf)(t,x)Lff. |(\partial_t f)(t, x)| \leq H_f, \quad |(\partial_x f)(t, x)| \leq L_f, \quad |(\partial_{xx} f)(t, x)| \leq L_{ff}.

Isso tudo em 0tT,0\leq t \leq T, xR.x\in \mathbb{R}. Como g=g(t)g=g(t) só depende de tt e o intevalo [0,T][0, T] é limitado, temos, pela suavidade de g,g, que

g(t)Mg,(tg)(t)Hg. |g(t)| \leq M_g, \quad |(\partial_t g)(t)| \leq H_g.

em 0tT.0\leq t \leq T.

Escrevemos a diferença entre a solução e a aproximação na forma

XtjXjn=0tj(f(s,Xs)f(tn(s),Xtn(s)))  ds+0tj(g(s,Xs)g(tin(s),Xtn(s)))  dWs+i=1j(f(ti1,Xti1)f(ti1,Xi1n))Δti1+i=1j(g(ti1,Xti1)g(ti1,Xi1n))ΔWi1, \begin{align*} X_{t_j} - X_j^n & = \int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))\;\mathrm{d}s + \int_0^{t_j} (g(s, X_s) - g(t_{i^n(s)}, X_{t^n(s)}))\;\mathrm{d}W_s \\ & \quad + \sum_{i=1}^j (f(t_{i-1}, X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n)) \Delta t_{i-1} + \sum_{i=1}^j (g(t_{i-1}, X_{t_{i-1}}) - g(t_{i-1}, X_{i-1}^n)) \Delta W_{i-1}, \end{align*}

No caso em que g=g(t),g=g(t), o último termo desaparece (mas que não é um termo problemático) e o segundo termo simplifica (esse sim é problemático),

XtjXjn=0tj(f(s,Xs)f(tn(s),Xtn(s)))  ds+0tj(g(s)g(tin(s)))  dWs+i=1j(f(ti1,Xti1)f(ti1,Xi1n))Δti1. \begin{align*} X_{t_j} - X_j^n & = \int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))\;\mathrm{d}s + \int_0^{t_j} (g(s) - g(t_{i^n(s)}))\;\mathrm{d}W_s \\ & \quad + \sum_{i=1}^j (f(t_{i-1}, X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n)) \Delta t_{i-1}. \end{align*}

O último termo é como antes e nos dá

i=1jE[(f(ti1,Xti1)f(ti1,Xi1n))2]Δti1Lf,22i=1jE[(Xti1Xi1n)2]Δti1. \sum_{i=1}^j \mathbb{E}\left[(f(t_{i-1}, X_{t_{i-1}}) - f(t_{i-1}, X_{i-1}^n))^2\right] \Delta t_{i-1} \leq L_{f, 2}^2\sum_{i=1}^j \mathbb{E}\left[(X_{t_{i-1}} - X_{i-1}^n)^2\right] \Delta t_{i-1}.

O segundo termo, agora sem a dependência em xx e com continuidade Lipschitz em t,t, nos dá

E[(0tj(g(s)g(tin(s)))  dWs)2]=0tjE[(g(s)g(tin(s)))2]  dsHg20tj(stin(s))2  dsHg2tjΔt2. \begin{align*} \mathbb{E}\left[\left(\int_0^{t_j} (g(s) - g(t_{i^n(s)}))\;\mathrm{d}W_s\right)^2\right] & = \int_0^{t_j} \mathbb{E}\left[\left(g(s) - g(t_{i^n(s)})\right)^2\right]\;\mathrm{d}s \\ & \leq H_g^2 \int_0^{t_j} \left(s - t_{i^n(s)}\right)^2\;\mathrm{d}s \\ & \leq H_g^2 t_j \Delta t^2. \end{align*}

O primeiro termo é o mais delicado e requer o uso da fórmula de Itô. Com ela, temos

f(s,Xs)f(tn(s),Xtn(s))=tn(s)s((tf)(ξ,Xξ)f(ξ,Xξ)+12(xxf)(ξ,Xξ)g(ξ)2)  dξ+tn(s)s(xf)(ξ,Xξ)g(ξ)  dWξ. \begin{align*} f(s, X_s) - f(t^n(s), X_{t^n(s)}) & = \int_{t^n(s)}^s \left((\partial_t f)(\xi, X_{\xi})f(\xi, X_{\xi}) + \frac{1}{2}(\partial_{xx} f)(\xi, X_{\xi})g(\xi)^2 \right)\;\mathrm{d}\xi \\ & \quad + \int_{t^n(s)}^s (\partial_x f)(\xi, X_{\xi})g(\xi)\;\mathrm{d}W_\xi. \end{align*}

O ponto chave é trocar a ordem de integração, usando uma versão estocástica do Teorema de Fubini na segunda integral. Assim,

0tj(f(s,Xs)f(tn(s),Xtn(s)))  ds=0tjtn(s)s((tf)(ξ,Xξ)f(ξ,Xξ)+12(xxf)(ξ,Xξ)g(ξ)2)  dξ  ds+0tjtn(s)s(xf)(ξ,Xξ)g(ξ)  dWξ  ds=0tjξt~n(ξ)((tf)(ξ,Xξ)f(ξ,Xξ)+12(xxf)(ξ,Xξ)g(ξ)2)  ds  dξ+0tjξt~n(ξ)(xf)(ξ,Xξ)g(ξ)  ds  dWξ, \begin{align*} \int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))\;\mathrm{d}s & = \int_0^{t_j} \int_{t^n(s)}^s \left((\partial_t f)(\xi, X_{\xi})f(\xi, X_{\xi}) + \frac{1}{2}(\partial_{xx} f)(\xi, X_{\xi})g(\xi)^2 \right)\;\mathrm{d}\xi\;\mathrm{d}s \\ & \quad + \int_0^{t_j} \int_{t^n(s)}^s (\partial_x f)(\xi, X_{\xi})g(\xi)\;\mathrm{d}W_\xi\;\mathrm{d}s \\ & = \int_0^{t_j} \int_{\xi}^{\tilde t^{n}(\xi)} \left((\partial_t f)(\xi, X_{\xi})f(\xi, X_{\xi}) + \frac{1}{2}(\partial_{xx} f)(\xi, X_{\xi})g(\xi)^2 \right)\;\mathrm{d}s\;\mathrm{d}\xi \\ & \quad + \int_0^{t_j} \int_{\xi}^{\tilde t^{n}(\xi)} (\partial_x f)(\xi, X_{\xi})g(\xi)\;\mathrm{d}s\;\mathrm{d}W_\xi, \end{align*}

onde

t~n(t)=min{tit;  i=0,,n} \tilde t^{n}(t) = \min\{t_i \geq t; \; i = 0, \ldots, n\}

é o ponto da malha que está mais próximo e à direita do instante t.t. Observe que o integrando não depende de s,s, de modo que o fato da integral em ss ser no intervalo [ξ,t~n(ξ)],[\xi, \tilde t^n(\xi)], ou seja, posterior a ξ,\xi, viola nenhuma condição de não antecipação do integrando.

Usando Cauchy-Schwartz e a isometria de Itô, obtemos a seguinte estimativa para a média quadrática desse termo.

E[(0tj(f(s,Xs)f(tn(s),Xtn(s)))  ds)2]tj0tj(tn(ξ)ξ)ξt~n(ξ)E[((tf)(ξ,Xξ)f(ξ,Xξ)+12(xxf)(ξ,Xξ)g(ξ)2)2]  ds  dξ+0tj(t~n(ξ)ξ)ξt~n(ξ)E[((xf)(ξ,Xξ)g(ξ))2]  ds  dξ. \begin{align*} \mathbb{E}&\left[\left(\int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))\;\mathrm{d}s\right)^2\right] \\ & \leq t_j\int_0^{t_j} (t^{n}(\xi) - \xi) \int_{\xi}^{\tilde t^{n}(\xi)} \mathbb{E}\left[\left((\partial_t f)(\xi, X_{\xi})f(\xi, X_{\xi}) + \frac{1}{2}(\partial_{xx} f)(\xi, X_{\xi})g(\xi)^2 \right)^2\right]\;\mathrm{d}s\;\mathrm{d}\xi \\ & \quad + \int_0^{t_j} (\tilde t^{n}(\xi) - \xi) \int_{\xi}^{\tilde t^{n}(\xi)} \mathbb{E}\left[\left((\partial_x f)(\xi, X_{\xi})g(\xi)\right)^2\right]\;\mathrm{d}s\;\mathrm{d}\xi. \end{align*}

Usando as estimativas para f,f, gg e suas derivadas, obtemos

E[(0tj(f(s,Xs)f(tn(s),Xtn(s)))  ds)2]tj0tj(tn(ξ)ξ)ξt~n(ξ)C1  ds  dξ+0tj(t~n(ξ)ξ)ξt~n(ξ)C2  ds  dξ=(tjC1+C2)0tj(tn(ξ)ξ)2  dξ(TC1+C2)Δt2. \begin{align*} \mathbb{E}\left[\left(\int_0^{t_j} (f(s, X_s) - f(t^n(s), X_{t^n(s)}))\;\mathrm{d}s\right)^2\right] & \leq t_j\int_0^{t_j} (t^{n}(\xi) - \xi) \int_{\xi}^{\tilde t^{n}(\xi)} C_1\;\mathrm{d}s\;\mathrm{d}\xi \\ & \quad + \int_0^{t_j} (\tilde t^{n}(\xi) - \xi) \int_{\xi}^{\tilde t^{n}(\xi)} C_2\;\mathrm{d}s\;\mathrm{d}\xi \\ & = (t_jC_1 + C_2)\int_0^{t_j} (t^{n}(\xi) - \xi)^2 \;\mathrm{d}\xi \\ & \leq (TC_1 + C_2)\Delta t^2. \end{align*}

para constantes apropriadas C1,C2>0.C_1, C_2 > 0. Juntando as estimativas, obtemos

E[(XtjXjn)2]C2Δt2+2Li=1jE[(Xti1Xi1n)2]Δti1, \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right] \leq C^2 \Delta t^2 + 2L \sum_{i=1}^j \mathbb{E}\left[(X_{t_{i-1}} - X_{i-1}^n)^2\right] \Delta t_{i-1},

para constante C,L>0C, L > 0 apropriadas. Pela desigualdade de Gronwall discreta, isso nos dá

E[(XtjXjn)2]C2e2LtjΔt2. \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right] \leq C^2e^{2Lt_j}\Delta t^2.

Considerando a norma forte, obtemos

E[XtjXjn]E[(XtjXjn)2]1/2CeLtjΔt. \mathbb{E}\left[\left|X_{t_j} - X_j^n\right|\right] \leq \mathbb{E}\left[\left(X_{t_j} - X_j^n\right)^2\right]^{1/2} \leq Ce^{Lt_j}\Delta t.

mostrando que o método de Euler-Maruyama é de ordem forte 1.1.



Last modified: December 04, 2024. Built with Franklin.jl, using the Book Template.