4.4. Classes de processos

Podemos classificar os processos aleatórios de várias formas diferentes. Vejamos algumas classificações e exemplos.

Processos identicamente distribuídos

Um processo {Xt}tI\{X_t\}_{t\in I} é dito identicamente distribuído quando as variáveis aleatórias XtX_t são identicamente distribuídas, ou seja, quando as leis de probabilidade das variáveis XtX_t são iguais entre si.

Por exemplo, o processo de Bernoulli {Xn}nN\{X_n\}_{n\in\mathbb{N}} tem XnBernoulli(p),X_n \sim \textrm{Bernoulli}(p), para todo nN,n\in \mathbb{N}, sendo, portanto, um processo identicamente distribuído.

Jogar um mesmo dado, não viciado, várias vezes, também é um processo identicamente distribuído, com XnUnif(Σ),X_n \sim \textrm{Unif}(\Sigma), com Σ={1,2,,6},\Sigma = \{1, 2, \ldots, 6\}, para todo nN.n\in \mathbb{N}. Mesmo um dado viciado também gera um processo identicamente distribuído, já que é o mesmo dado que estamos jogando. A distribuição só não será uniforme.

O processo de contagem binomial, por outro lado, não é identicamente distribuído, pois cada incremento WnW_n tem distribuição binomial diferente WnBinomial(n,p).W_n \sim \textrm{Binomial}(n, p).

Observe, como falamos antes, que não basta conhecermos apenas a função de probabilidade acumulada em cada instante de tempo. É preciso saber todas as probabilidades conjuntas. De fato, o processo de Bernoulli XnX_n discutido acima é tal que, para algum p,p, vale XnBernoulli(p),X_n \sim \mathrm{Bernoulli}(p), para todo n.n. Por outro lado, se definirmos o processo constante Yn=Y,Y_n = Y, onde Y=Bernoulli(p),Y = \mathrm{Bernoulli}(p), ou seja, com medida de probabilidade P~(Y=(0,0,))=1p\tilde{\mathbb{P}}(Y = (0, 0, \ldots)) = 1 - p e P~(Y=(1,1,))=p,\tilde{\mathbb{P}}(Y = (1, 1, \ldots)) = p, então também temos cada YtBernouilli(p).Y_t \sim\mathrm{Bernouilli}(p). Mas os dois processos são bem diferentes entre si.

Processos com incrementos identicamente distribuídos

O processo {Xn}nZ\{X_n\}_{n\in \mathbb{Z}^*} de contagem binomial não é identicamente distribuído, mas os passos Xn+1XnBernoulli(p)X_{n+1} - X_n\sim \textrm{Bernoulli}(p) são testes de Bernoulli com a mesma probabilidade de sucesso, portanto identicamente distribuídos.

Se ΔXn=Xn+1Xn\Delta X_n = X_{n + 1} - X_n são identicamente distribuídos, então ΔXnΔX1,\Delta X_n \sim \Delta X_1, para todo nN.n\in \mathbb{N}. Assim, para cada kN,k\in \mathbb{N}, a família ΔXnk=Xn+kXn,\Delta X_n^k = X_{n + k} - X_n, nN,n\in \mathbb{N}, de "passos largos" também é identicamente distribuída, já que

Xn+kXn=j=0k1(Xn+j+1Xn+j)=j=0k1ΔXn+jj=0k1ΔX1= independente de n. X_{n + k} - X_n = \sum_{j = 0}^{k-1} \left( X_{n + j + 1} - X_{n + j} \right) = \sum_{j = 0}^{k-1} \Delta X_{n + j} \sim \sum_{j = 0}^{k-1} \Delta X_1 = \text{ independente de $n$}.

Mais geralmente, dizemos que um processo {Xt}tI\{X_t\}_{t\in I} é um processo com incrementos identicamente distribuídos quando, para cada τ>0,\tau > 0, as variáveis aleatórias {ΔXtτ}t,t+τI,\{\Delta X_t^\tau\}_{t, t+\tau \in I}, definidas por ΔXtτ=Xt+τXt,\Delta X_t^\tau = X_{t + \tau} - X_t, são identicamente distribuídas. A distribuição pode variar com o tamanho do incremento τ,\tau, mas não com o instante tt em que cada incremento é dado.

Um exemplo de processo contínuo que tem incrementos identicamente distribuídos é o de processo de Wiener, que veremos mais pra frente.

Já o processo de renovação não tem incrementos identicamente distribuídos. De fato, sejam Sj,S_j, jN,j\in \mathbb{N}, variáveis aleatórias independentes, com distribuições P(Sj=1)=P(Sj=2)=1/2,\mathbb{P}(S_j = 1) = \mathbb{P}(S_j = 2) = 1/2, para jN.j \in \mathbb{N}. Seja XtX_t o processo de renovação associado a esses saltos. Lembremos que

Xt=nNχ{Tnt}=sup{n;  Tnt}, X_t = \sum_{n\in \mathbb{N}} \chi_{\{T_n \leq t\}} = \sup\{n; \; T_n \leq t\},

onde

Tn=j=1nSj. T_n = \sum_{j = 1}^n S_j.

Como Sj=1S_j = 1 ou 2,2, então T1=1T_1 = 1 ou 22 e Tj2,T_j \geq 2, para j2.j \geq 2.

Então Xt=0,X_t = 0, para t<1t < 1; Xt=0X_t = 0 ou 1,1, para 1t<21 \leq t < 2; Xt2,X_t \geq 2, para t2.t \geq 2. Portanto, X1/2X0=0X_{1/2} - X_0 = 0 mas X1X1/2=0X_1 - X_{1/2} = 0 ou 1,1, com iguais probabilidades. Ou seja, esses incrementos não têm a mesma distribuição, não sendo identicamente distribuídos.

Processos independentes

Um processo {Xt}\{X_t\} é dito independente quando as variáveis aleatórias XtX_t são independentes entre si. Ou seja, as chances de Xt1E1X_{t_1} \in E_1 são independentes de Xt2E2,X_{t_2} \in E_2, em momentos distintos t1t_1 e t2.t_2. Podemos escrever isso na forma

P(Xt2E2Xt1E1)=P(Xt2E2),t1t2. \mathbb{P}(X_{t_2} \in E_2 | X_{t_1} \in E_1) = \mathbb{P}(X_{t_2} \in E_2), \quad \forall t_1 \neq t_2.

O processo de Bernoulli, por exemplo, é independente. Pense, novamente, no lançamento de uma moeda. Se em um determinado lançamento foi obtido cara, isso não vai mudar as chances de se obter coroa no próximo lançamento. Mesma coisa com lançamentos sucessivos de um dado.

Já o caminho aleatório não é independente, pois as chances de termos X3=3X_3 = 3 dependem da posição X2.X_2. Mais precisamente,

P(X3=3X2=2)=12, \mathbb{P}(X_3 = 3 | X_2 = 2) = \frac{1}{2},

mas

P(X3=3X21)=0. \mathbb{P}(X_3 = 3 | X_2 \leq 1) = 0.

Além disso, como X0=0,X_0 = 0, a única chance de chegar em X3=3X_3 = 3 é dar três passos +1,+1, de modo que

P(X3=3)=12×12×12=18. \mathbb{P}(X_3 = 3) = \frac{1}{2}\times\frac{1}{2}\times\frac{1}{2} = \frac{1}{8}.

Processos com incrementos independentes

O caminho aleatório não é independente, como vimos, mas os seus incrementos são independentes. De fato, as chances de darmos um passo +1+1 ou 1-1 em um determinado instante independe de qualquer passo dado anteriormente. Ou seja, os incrementos Xn+1XnX_{n+1} - X_n são independentes entre si. Nesse caso, dizemos que o processo {Xn}n\{X_n\}_n tem incrementos independentes.

Mais geralmente, um processo {Xt}tI\{X_t\}_{t\in I} tem incrementos independentes quando, para quaisquer 0t0<t1,,tn,0 \leq t_0 < t_1, \ldots, t_n, os incrementos Xt1Xt0,X_{t_1} - X_{t_0}, Xt2Xt1,X_{t_2} - X_{t_1}, ..., XtnXtn1X_{t_n} - X_{t_{n-1}} são variáveis aleatórias mutuamente independentes.

Veremos que um processo de Wiener é um exemplo de processo contínuo com incrementos independentes.

O processo de renovação, por sua vez, também não tem incrementos independentes. De fato, sejam Sj,S_j, jN,j\in \mathbb{N}, variáveis aleatórias independentes com distribuições P(S1=1)=P(Sj=2)=1/2\mathbb{P}(S_1 = 1) = \mathbb{P}(S_j = 2) = 1/2 e P(Sj<2)=0,\mathbb{P}(S_j < 2) = 0, para j2.j \geq 2. Seja XtX_t o processo de renovação associado a esses saltos. Lembremos que

Xt=nNχ{Tnt}=sup{n;  Tnt}, X_t = \sum_{n\in \mathbb{N}} \chi_{\{T_n \leq t\}} = \sup\{n; \; T_n \leq t\},

onde

Tn=j=1nSj. T_n = \sum_{j = 1}^n S_j.

Observe que S1=1S_1 = 1 ou 22 e Sj2,S_j \geq 2, para j2.j \geq 2. Assim, T1=1T_1 = 1 ou 22 e Tj3,T_j \geq 3, para j2.j \geq 2.

Então Xt=0,X_t = 0, para t<1t < 1; Xt=0X_t = 0 ou 1,1, para 1t<21 \leq t < 2 e Xt=1,X_t = 1, para 2t<3.2 \leq t < 3. Observe, ainda, que X5/4X3/4=X1X1/2X_{5/4} - X_{3/4} = X_1 - X_{1/2} com iguais probabilidades de serem 00 ou 1,1, dependendo do resultado de S1.S_1. Assim, esses incrementos não são independentes. Se X1X1/2=1,X_1 - X_{1/2} = 1, então S1=1S_1 = 1 e necessariamente X5/4X3/4=1.X_{5/4} - X_{3/4} = 1. Já se X1X1/2=0,X_1 - X_{1/2} = 0, então S1=2S_1 = 2 e necessariamente X5/4X3/4=0.X_{5/4} - X_{3/4} = 0. Todos os outros passos são mais longos e não interferem nesse movimento inicial.

Processos independentes e identicamente distribuídos

Esses processos, chamados simplesmente de i.i.d., são aqueles, naturalmente, que são, ao mesmo tempo, independentes e identicamente distribuídos.

Como vimos, o processo de Bernoulli é independente e identicamente distribuído.

Um processo pode ser independente sem ser identicamente distribuído. De fato, pense em um processo de Bernoulli em que a cada passo temos um teste de Bernoulli com probabilidades diferentes, digamos XnBernoulli(pn),X_n \sim \mathrm{Bernoulli}(p_n), com pnp_n distintos. Por exemplo, jogamos, alternadamente, um dado viciado e um dado não viciado.

Um processo também pode ser identicamente distribuído sem ser independente. Por exemplo, digamos que, a cada mês, eu faça um sorteio, sempre do mesmo modo, para escolher uma certa quantidade de números para jogar na loteria e eu que eu repita os números em todas as semanas daquele mês. A probabilidade de um dos números ser igual a três é a mesma independente da semana. E as chances de eu jogar o número três na primeira semana de julho são as mesmas tendo eu jogado três na terceira semana de março ou não. Mas se um dos números jogados na primeira semana de julho for três, então certamente o três será jogado novamente na terceira semana de julho. Os números jogados em um mesmo mês não são independentes entre si.

Um exemplo contínuo é o processo

Xt=cos(t+U),tR, X_t = \cos(t + U), \quad t\in \mathbb{R},

onde UU é a variável aleatória UUnif([0,2π]),U \sim \mathrm{Unif}([0, 2\pi]), i.e. com lei uniforme no intervalo [0,2π).[0, 2\pi). Como o cosseno é periódico com período 2π,2\pi, essa lei é a mesma em todos os instantes tR,t\in \mathbb{R}, ou seja, são identicamente distribuídos. Mas não são independentes.

Processos com incrementos independentes e identicamente distribuídos

O nome já diz, por si só, o que é um processo com incrementos independentes e identicamente distribuídos.

Um exemplo é o caminho aleatório. Processos de Wiener, que veremos mais adiante, são exemplos de processos contínuos com incrementos i.i.d..

Vale ressaltar aqui que, para a independência dos incrementos, os incrementos devem ser consecutivos, i.e. WtjWtj,W_{t_j} - W_{t_j}, para t0<t1<<tnt_0 < t_1 < \cdots < t_n ou, no mínimo, sem interseção nos intervalos de tempo. Já para a distribuição idêntica, os passos devem ser tomados com intervalos iguais, i.e. Xt+τXtX_{t + \tau} - X_t e Xs+τXs,X_{s + \tau} - X_s, mas pode haver interseção, ou seja τ>0\tau > 0 e t,st, s são arbitrários.

Processos estacionários

Um processo {Xt}tI\{X_t\}_{t\in I} é dito estacionário quando as suas informações estatísticas não variam com o tempo. Mais precisamente, para quaisquer t1,,tnIt_1, \ldots, t_n \in I e τ>0\tau>0 tais que t1+τ,,tn+τI,t_1 + \tau, \ldots, t_n + \tau \in I, as distribuições conjuntas de Xt1,,XtnX_{t_1}, \ldots, X_{t_n} e Xt1+τ,,Xtn+τX_{t_1 + \tau}, \ldots, X_{t_n + \tau} são iguais, o que pode ser expresso por

P(Xt1+τE1,,Xtn+τEn)=P(Xt1E1,,XtnEn), \mathbb{P}(X_{t_1 + \tau} \in E_1, \ldots, X_{t_n + \tau} \in E_n) = \mathbb{P}(X_{t_1} \in E_1, \ldots, X_{t_n} \in E_n),

para eventos quaisquer E1,,EnE.E_1, \ldots, E_n \in \mathcal{E}.

Em particular, considerando n=1,n = 1, vemos que as distribuições simples XtX_t também são idênticas, ou seja, processos estacionários são necessariamente identicamente distribuídos. Mas não precisam ser independentes. De fato, considere o processo de Bernoulli {Xn}nN\{X_n\}_{n\in \mathbb{N}} e defina Yn=Xn+Xn+1,Y_n = X_n + X_{n + 1}, ou seja, YnY_n soma os resultados de dois lançamentos consecutivos, em uma série de lançamentos. A distribuição de YnY_n é sempre a mesma, igual à binomial B(2,p).B(2, p). Mas Yn+1Y_{n+1} não é independente de Yn.Y_n.

Por outro lado, qualquer processo i.i.d. é estacionário. De fato, temos, trivialmente, que, como cada realização é independente,

P(Xt1+τE1,,Xtn+τEn)=P(Xt1+τE1)××P(Xtn+τEn). \mathbb{P}(X_{t_1 + \tau} \in E_1, \ldots, X_{t_n + \tau} \in E_n) = \mathbb{P}(X_{t_1 + \tau} \in E_1) \times \cdots \times \mathbb{P}(X_{t_n + \tau} \in E_n).

Além disso, como são identicamente distribuídos, cada P(Xtj+τEj)=P(XtjEj).\mathbb{P}(X_{t_j + \tau} \in E_j) = \mathbb{P}(X_{t_j} \in E_j). Usando isso e, novamente, a independência das realizações,

P(Xt1+τE1,,Xtn+τEn)=P(Xt1E1)××P(XtnEn)=P(Xt1E1,,XtnEn). \mathbb{P}(X_{t_1 + \tau} \in E_1, \ldots, X_{t_n + \tau} \in E_n) = \mathbb{P}(X_{t_1} \in E_1) \times \cdots \times \mathbb{P}(X_{t_n} \in E_n) = \mathbb{P}(X_{t_1} \in E_1, \ldots, X_{t_n} \in E_n).

Nesse caso, podemos ir além e deduzir que essa distribuição conjunta é P(XtE1)××P(XtEn)=P(XtE1En)\mathbb{P}(X_t \in E_1) \times \cdots \times \mathbb{P}(X_t \in E_n) = \mathbb{P}(X_t \in E_1 \cap \cdots \cap E_n) e independente de t.t.

Processos estacionários no sentido fraco

Pedir que um processo seja estacionário é, invariavelmente, pedir muito. Em várias situações, apenas parte das informações estatísticas de um processo são estacionárias, a saber, o valor médio e a autocorrelação. Mais precisamente, dizemos que um processo {Xt}tI\{X_t\}_{t\in I} é fracamente estacionário, ou estacionário no sentido fraco, quando

E(Xt) eˊ finito e independente de tI, \mathbb{E}(X_t) \text{ é finito e independente de } t\in I,

e

t1,t2I,  E(Xt1+τXt2+τ) eˊ finito e independente de τ>0,  t1+τ,t2+τI. \forall t_1, t_2\in I, \;\mathbb{E}(X_{t_1 + \tau} X_{t_2 + \tau}) \text{ é finito e independente de } \tau > 0, \;t_1 + \tau, t_2 + \tau \in I.

Observe a condição desses momentos serem finitos. Por conta disso, não podemos dizer, estritamente, que processos estacionários são fracamente estacionário. Mas qualquer processo estacionário com autocorrelação finita é fracamente estacionário.

Vale lembrar que a variável aleatória discreta YY com probabilidades dadas pelos termos da série de Euler, i.e. P(Y=k)=pk=6/π2k2,\mathbb{P}(Y = k) = p_k = {6}/{\pi^2 k^2}, é um exemplo de variável aleatória com valor esperado (e autocorrelação) infinita. Assim, o processo dado por Xn=Y,X_n = Y, para todo n,n, é estacionário mas não é fracamente estacionário.

Processos de Poisson

Um processo de Poisson com taxa, ou intensidade, λ>0\lambda > 0 é um processo contínuo {Xt}t0\{X_t\}_{t\geq 0} com valores inteiros e com seguintes propriedades:

  1. X0=0X_0 = 0;

  2. Os incrementos são independentes, i.e. para quaisquer 0t0<t1,,tn,0 \leq t_0 < t_1, \ldots, t_n, os incrementos Xt1Xt0,X_{t_1} - X_{t_0}, Xt2Xt1,X_{t_2} - X_{t_1}, ..., XtnXtn1X_{t_n} - X_{t_{n-1}} são variáveis aleatórias independentes;

  3. Para t0t\geq 0 e τ>0,\tau > 0, o incremento Xt+τXtX_{t + \tau} - X_t é uma variável aleatória com distribuição de Poisson, i.e.

P(Xt+τXt=k)=(λτ)keλτk!. \mathbb{P}(X_{t + \tau} - X_t = k) = \frac{(\lambda \tau)^k e^{-\lambda \tau}}{k!}.

Os processos de Poisson são uma versão contínua do processo de contagem. Por definição, os processos de Poisson são processos com incrementos i.i.d..

Processos Gaussianos

Um processo Gaussiano é um processo contínuo {Xt}tI,\{X_t\}_{t\in I}, em um intervalo IR,I\subset \mathbb{R}, tal que as distribuições conjuntas Xt1,,XtnX_{t_1}, \ldots, X_{t_n} são normais (multivariadas).

Um exemplo é dado pela Gaussiana senoidal Xt=cos(at)Y1+sin(at)Y2,X_t = \cos(at)Y_1 + \sin(at)Y_2, onde a>0a > 0 e Yi=N(μi,σi2)Y_i = \mathcal{N}(\mu_i, \sigma_i^2) são normais independentes, i=1,2.i = 1, 2.

Processos de Wiener também são processos Gaussianos.

Processos e cadeias de Markov

Processos e cadeias de Markov são processos estocásticos em que a mudança de estado para um estado futuro, conhecendo-se o estado atual, não depende dos estados passados. São frequentemente chamados de processos sem memória.

É comum distinguir entre processos discretos e contínuos, denominando os primeiros como cadeias de Markov e os últimos como processos de Markov, mas nem todos os autores fazem essa distinção; em muitos contextos, a denominação cadeia de Markov se refere a processos que podem ser discretos ou contínuos.

No caso discreto, se {Xt}tI\{X_t\}_{t\in I} é um processo aleatório em um conjunto discredo I,I, t1<t2<<tn<tn+1t_1 < t_2 < \ldots < t_n < t_{n+1} pertencem a I,I, e E,E1,,EnE, E_1, \ldots, E_n são possíveis eventos, então, dados Xt1E1,Xt2E2,,XtnEn,X_{t_1} \in E_1, X_{t_2} \in E_2, \ldots, X_{t_n} \in E_n, temos que a probabilidade de Xtn+1EX_{t_{n+1}} \in E só depende da informação dada no instante mais recente tn,t_n, ou seja

P(Xtn+1EXt1E1,Xt2E2,,XtnEn)=P(Xtn+1EXtnEn). \mathbb{P}(X_{t_{n+1}} \in E | X_{t_1} \in E_1, X_{t_2} \in E_2, \ldots, X_{t_n} \in E_n) = \mathbb{P}(X_{t_{n+1}} \in E | X_{t_n} \in E_n).

No caso em que o conjunto de eventos também é discreto, podemos escrever

P(Xtn+1=xXt1=x1,Xt2=x2,,Xtn=xn)=P(Xtn+1=xXtn=xn). \mathbb{P}(X_{t_{n+1}} = x | X_{t_1} = x_1, X_{t_2} = x_2, \ldots, X_{t_n} = x_n) = \mathbb{P}(X_{t_{n+1}} = x | X_{t_n} = x_n).

A definição formal no caso em que o processo estocástico é contínuo é um pouco delicada, pois a condição requer envolver não apenas um número finito de instantes anteriores mas, sim, um contínuo de instantes st.s \leq t. Para isso, é necessário o conceito de filtração. Veremos isso em outro momento.

O processo de Bernoulli é um exemplo trivial de uma cadeia de Markov discreta. O passeio aleatório é outro exemplo. Um processo de Wiener, modelando o movimento Browniano, por sua vez, é um exemplo de um processo de Markov contínuo. Já o modelo da urna sem recomposição, como tratado anteriormente, não é uma cadeia de Markov, já que cada passo depende do estado do sistema em todos os incrementos anteriores. Mas este pode ser reformulado como um processo de Markov. Veremos isso posteriormente, junto com o estudo de propriedades específicas de processos de Markov.

Martingales

Processos do tipo Martingale são processos em que o valor esperado em um instante futuro é igual ao valor atual. Mais precisamente, no caso de II discreto, um processo {Xt}tI\{X_t\}_{t\in I} é Martingale se

E[Xt]<,tI, \mathbb{E}\left[|X_t|\right] < \infty, \quad \forall t\in I,

e se, dados instantes t1<t2<<tn<tn+1t_1 < t_2 < \ldots < t_n < t_{n+1} pertencentes a II e dados eventos E1,,En,E_1, \ldots, E_n, vale

E[Xtn+1Xt1E1,,XtnEn]=Xtn. \mathbb{E}\left[X_{t_{n+1}} | X_{t_1}\in E_1, \ldots, X_{t_n}\in E_n\right] = X_{t_n}.

No caso contínuo, a segunda condição pode ser informalmente escrita na forma

E[Xt+τ{Xs;sI,  st}]=Xt,τ0. \mathbb{E}\left[X_{t + \tau} | \{X_s; s\in I, \;s\geq t\}\right] = X_t, \quad \forall \tau \geq 0.

Formalmente, a condicional {Xs;sI,  st}\{X_s; s\in I, \;s\geq t\} deve ser escrita na forma

E[Xt+τXEt]=Xt,τ0, \mathbb{E}\left[X_{t + \tau} | X \in E_t\right] = X_t, \quad \forall \tau \geq 0,

para qualquer {XEt}\{X \in E_t\} em uma σ\sigma-algebra Ft\mathcal{F}_t associada a uma filtração, como a filtração natural dada pela σ\sigma-algebra gerada por (i.e. a menor σ\sigma-algebra contendo) {Xs1(E);sI,  st,  EE}.\{X_s^{-1}(E); s\in I, \; s \leq t, \; E\in \mathcal{E}\}.

O exemplo clássico de Martingale é o passeio aleatório. Se {Xn}nZ\{X_n\}_{n\in \mathbb{Z}^*} denota o passeio aleatório, então, dado Xn,X_n, podemos ter Xn+1=Xn+1X_{n+1} = X_n + 1 ou Xn1X_n - 1 com iguais probabilidades, de modo que

E[Xn+1Xn]=Xn,n. \mathbb{E}[X_{n+1}|X_n] = X_n, \qquad \forall n.

Além disso, o conhecimento de posições anteriores Xj,X_j, j=0,,n1j = 0, \ldots, n - 1 não modifica esse valor esperado. Ou seja,

E[Xn+1An]=Xn,n, \mathbb{E}[X_{n+1}|A_n] = X_n, \qquad \forall n,

para qualquer AnA_n na filtração natural até n.n.

Um processo Martingale não depende de valores anteriores. Mas ele não é necessariamente um processo de Markov, pois outras informações estatísticas diferentes do valor esperado podem depender de informações anteriores. E processos de Markov não são necessariamente Martingales, pois o valor esperado só depende da informação atual mas pode ser diferente do estado atual do processo.

Processos de Wiener

Um processo de Wiener, ou processo Browniano, é um processo estocástico real {Wt}t0\{W_t\}_{t \geq 0} tal que, para algum x0R,x_0\in \mathbb{R},

  1. W0=x0W_0 = x_0;

  2. {Wt}t0\{W_t\}_{t\geq 0} possui incrementos independentes, i.e. para tj0t_j \geq 0 e τj>0,\tau_j > 0, onde j=1,,J,j = 1, \ldots, J, JN,J\in\mathbb{N}, temos que as variáveis aleatórias ΔWj=Wtj+τjWtj,\Delta W_j = W_{t_j + \tau_j} - W_{t_j}, j=1,,J,j = 1, \ldots, J, são independentes.

  3. Para qualquer τ>0,\tau > 0, os incrementos Wt+τWtW_{t + \tau} - W_t são identicamente distribuídos, com distribuição normal com média zero e desvio padrão τ,\tau, i.e.

Wt+τWtN(0,τ),t0,  τ>0. W_{t + \tau} - W_t \sim \mathcal{N}(0, \tau), \quad \forall t \geq 0, \; \forall \tau > 0.
  1. Com probabilidade um, os caminhos amostrais são contínuos, i.e.

P({ωΩ;  tWt(ω) eˊ contıˊnuo})=1. \mathbb{P}(\{\omega \in \Omega; \; t \rightarrow W_t(\omega) \text{ é contínuo}\}) = 1.

Quando x0=0,x_0 = 0, ou seja,

W0=0, W_0 = 0,

o processo {Wt}t0\{W_t\}_{t \geq 0} é chamado de processo de Wiener padrão, ou processo Browniano padrão. Dado um processo de Wiener padrão {Wt}t0,\{W_t\}_{t\geq 0}, o processo W~t=x0+Wt\tilde W_t = x_0 + W_t é um processo de Wiener com W0=x0.W_0 = x_0.

Esse tipo de processo estocástico, como modelo para o movimento Browniano, foi introduzido por N. Wiener, nos anos 1920, junto com a demonstração de existência de tal processo. O processo de Wiener é um dos temas centrais em equações diferenciais estocásticos. O estudaremos em detalhes em capítulos subsequentes. Em particular, veremos que o processo de Wiener é um exemplo de processo Gaussiano. Reciprocamente, se pode mostrar que um processo Gaussiano {Xt}t0\{X_t\}_{t\geq 0} com caminhos contínuous quase certamente e satisfazendo E[Xt]=0\mathbb{E}[X_t] = 0 e E[XtXs]=min{t,s},\mathbb{E}[X_t X_s] = \min\{t, s\}, para todo t,s0,t, s \geq 0, é um processo de Wiener.

Processos de Lévy

Um processo de Lévy é um processo estocástico contínuo {Xt}t0\{X_t\}_{t\geq 0} tal que

  1. X0=0X_0 = 0;

  2. Os incrementos são independentes, i.e. para quaisquer 0t0<t1,,tn,0 \leq t_0 < t_1, \ldots, t_n, os incrementos Xt1Xt0,X_{t_1} - X_{t_0}, Xt2Xt1,X_{t_2} - X_{t_1}, ..., XtnXtn1X_{t_n} - X_{t_{n-1}} são variáveis aleatórias independentes;

  3. Os incrementos são estacionários, i.e. para quaisquer 0t1,,tn0 \leq t_1, \ldots, t_n e τ>0,\tau > 0, os incrementos Xt1+τXt1,X_{t_1 + \tau} - X_{t_1}, ..., Xtn+τXtnX_{t_n + \tau} - X_{t_n} tem distribuição conjunta de probabilidades independente de τ\tau;

  4. {Xt}t0\{X_t\}_{t\geq 0} é contínuo em probabilidade, i.e. P(Xt+τXt>ε)0,\mathbb{P}(|X_{t + \tau} - X_t| > \varepsilon) \rightarrow 0, quando τ0.\tau \rightarrow 0.

Processos de Wiener são processos de Lévy, com incrementos normais com média zero e variância proporcional ao intervalo de tempo.

Processos de Poisson são processos de Lévy, com incrementos dados por uma distribuição de Poisson, com valor esperado proporcional ao intervalo de tempo.

Processos de Lévy podem ser caracterizados através de uma representação chamada de fórmula de Lévy-Khintchine, para a sua função característica.

Ruído branco

O conceito de processo do tipo ruído branco é delicado. A ideia está associada à cor branca, que pode ser obtida pela mistura uniforme de fontes lumiosas de todas as cores visíveis, i.e. combinando-se, igualmente, todos os comprimentos de onda do espectro visível. No caso de um "ruído", pensamos em um processo {Xt}t,\{X_t\}_t, com variável temporal tt contínua, digamos t0.t \geq 0. O espectro é obtido através das suas correlações, ou por suas covariâncias, como faremos a seguir. Pede-se, de início, que o processo tenha valor esperado nulo, E[Xt]=0,\mathbb{E}[X_t] = 0, para todo t0.t \geq 0. Assim, as suas covariâncias são dadas por

Cov(Xt,Xs)=E(XtXs),t,s0. \mathrm{Cov}(X_t, X_s) = \mathbb{E}(X_tX_s), \qquad t, s \geq 0.

Pede-se, ainda, que seja um processo estacionário, de modo que as covariâncias só dependam do intervalo de tempo ts,t - s, podendo ser escritas na forma

Cov(Xt,Xs)=c(ts), \mathrm{Cov}(X_t, X_s) = c(t - s),

para alguma função c:RR.c:\mathbb{R} \rightarrow \mathbb{R}. Observe que Cov(Xt,Xs)=Cov(Xs,Xt),\mathrm{Cov}(X_t, X_s) = \mathrm{Cov}(X_s, X_t), de modo que t,s0t, s \geq 0 podem ser arbitrários e tst-s pode, de fato, assumir qualquer valor real.

Caso não haja nenhuma correlação entre os sinais em instantes diferentes, teremos

c(τ)=0,t0. c(\tau) = 0, \qquad \forall t \neq 0.

Naturalmente,

σ02=defc(0)=Cov(Xt,Xt)=E(Xt2)=Var(Xt)>0 eˊ constante. \sigma_0^2 \stackrel{\mathrm{def}}{=} c(0) = \mathrm{Cov}(X_t, X_t) = \mathbb{E}(X_t^2) = \mathrm{Var}(X_t) > 0 \text{ é constante.}

Um exemplo de processo que satisfaz essas condições é o processo Xt=sin(Ut),X_t = \sin(Ut), onde UUnif([0,2π)).U \sim \mathrm{Unif}([0, 2\pi)). Apesar dos caminhos amostrais serem simples senoidais, este é um exemplo de ruído branco no sentido acima. De fato, temos

E[Xt]=Rx  PXt(dx)=12π02πsin(ut)  du=0; \mathbb{E}[X_t] = \int_\mathbb{R} x \;\mathbb{P}_{X_t}(\mathrm{d}x) = \frac{1}{2\pi}\int_0^{2\pi} \sin(ut) \;\mathrm{d}u = 0; Var(Xt)=Rx2  PXt(dx)=12π02πsin(ut)2  du=12π02π1+cos(2ut)2  du=12; \mathrm{Var}(X_t) = \int_\mathbb{R} x^2 \;\mathbb{P}_{X_t}(\mathrm{d}x) = \frac{1}{2\pi}\int_0^{2\pi} \sin(ut)^2 \;\mathrm{d}u = \frac{1}{2\pi}\int_0^{2\pi} \frac{1 + \cos(2ut)}{2} \;\mathrm{d}u = \frac{1}{2};

e

Cov(Xt,Xs)=12π02πsin(ut)sin(us)  du=0;ts. \mathrm{Cov}(X_t, X_s) = \frac{1}{2\pi}\int_0^{2\pi} \sin(ut)\sin(us) \;\mathrm{d}u = 0; \quad t \neq s.

No entanto, não podemos dizer que uma função c()c(\cdot) satisfazendo c(τ)=0,c(\tau) = 0, quando τ0,\tau \neq 0, e c(0)=1/2c(0) = 1/2 tenha um espectro contínuo. As condições acima dão, na verdade, um ruído branco em um sentido mais fraco.

Para que seja um ruído branco "genuíno", a função de covariância c()c(\cdot) não está definida no sentido clássico. É necessário que seja uma distribuição, com

c(τ)=σ02δ0, c(\tau) = \sigma_0^2\delta_0,

para alguma σ0>0\sigma_0 > 0 e onde δ0\delta_0 é a delta de Dirac. Assim, o seu espectro c^(ω)\hat c(\omega) é, de fato, constante (usamos ω,\omega, aqui, para denotar a frequência, como de costume nesse contexto, ao invés de denotar um elemento do espaço amostral):

c^(ω)=12πc(τ)eiωτ  dτ=12πσ02,ωR. \hat c(\omega) = \frac{1}{2\pi} \int_{-\infty}^\infty c(\tau) e^{-i\omega \tau} \;\mathrm{d}\tau = \frac{1}{2\pi}\sigma_0^2, \quad \forall \omega \in \mathbb{R}.

Algumas definições pedem, ainda, que os eventos, em instantes diferentes, sejam independentes entre si.

Não vamos nos aprofundar nesse assunto tão delicado, mas veremos argumentos de que a "derivada" de um processo de Wiener pode ser considerada um ruído branco nesse sentido mais forte.

Exercícios

  1. Mostre que, se {Xn}n\{X_n\}_n é um processo i.i.d. e kN,k \in \mathbb{N}, o processo Yn=Xn++Xn+kY_n = X_n + \cdots + X_{n + k} é estacionário mas não é i.i.d..



Last modified: December 04, 2024. Built with Franklin.jl, using the Book Template.