4.1. Conceitos essenciais

Um processo estocástico é, essencialmente, uma família de variáveis aleatórias {Xt}tI\{X_t\}_{t\in I} indexada por algum conjunto I.I. Vamos considerar, mais especificamente, IR,I\subset \mathbb{R}, em duas situações específicas, como um subintervalo da reta ou como um conjunto discreto enumerável da reta. Em muitos casos, tt representa uma variável temporal, discreta ou contínua, e XtX_t indica a variação do estado de algum sistema ao longo do tempo, por exemplo.

A definição acima, porém, é um tanto vaga. Uma definição mais precisa de um processo estocástico {Xt}tI\{X_t\}_{t\in I} é a de que as variáveis aleatórias XtX_t são funções (mensuráveis) definidas em um mesmo espaço amostral (Ω,F,P)(\Omega, \mathcal{F}, \mathbb{P}) e assumindo valores em um mesmo espaço de estados (Σ,E).(\Sigma, \mathcal{E}).

Classificamos um processo de acordo com a natureza do conjunto de índices IRI\subset \mathbb{R} e do conjunto eventos Σ.\Sigma. Dizemos que {Xt}tI\{X_t\}_{t\in I} é um processo estocástico em tempo discreto quando II é discreto, e.g. I=Z,I = \mathbb{Z}, ou I=Z={0,1,2,},I=\mathbb{Z}^* = \{0, 1, 2, \ldots\}, ou I=N,I = \mathbb{N}, ou I={(t1,t2,)  tjR,  tj<tj+1}.I = \{(t_1, t_2, \ldots)\; t_j \in \mathbb{R}, \; t_j < t_{j+1}\}. Dizemos que {Xt}tI\{X_t\}_{t\in I} é um processo estocástico em tempo contínuo quando II for um intervalo não trivial, e.g. I=R,I=\mathbb{R}, ou I=[0,)I=[0, \infty) ou I=[t0,tf].I=[t_0, t_f].

No caso do conjunto de eventos, dizemos simplesmente que é um processo estocástico discreto, quando Σ\Sigma é discreto, ou um processo estocástico contínuo, quando Σ\Sigma é contínuo.

Vale ressaltar que a função XtX_t é uma função determinística, levando cada ωΩ\omega \in \Omega em um estado Xt(ω)Σ.X_t(\omega) \in \Sigma. A incerteza vem da interpretação de que cada realização Xt(ω)X_t(\omega) ou cada conjunto de realizações vem com uma certa probabilidade de ser observado. A análise, em si, é que é probabilística por natureza.

Em relação aos conjuntos amostrais, definidos pela σ\sigma-álgebra F,\mathcal{F}, é necessário que cada XtX_t seja uma variável aleatória em relação a essa σ\sigma-álgebra. Ou seja, para cada evento EE,E\in \mathcal{E}, devemos ter Xt1(E)F.X_t^{-1}(E)\in \mathcal{F}. Dizemos, assim, que XtX_t é mensurável, ou, mais precisamente, que é (Ω,F)(\Omega, \mathcal{F})-(Σ,E)(\Sigma, \mathcal{E})-mensurável.

Para cada ωΩ,\omega\in \Omega, a função tXt(ω)t \mapsto X_t(\omega) é chamada de trajetória, ou caminho amostral. É comum denotarmos um caminho por x(t,ω)=Xt(ω).x(t, \omega) = X_t(\omega). A distribuição de probabilidade nos dá não apenas a probabilidade de observarmos um determinado valor, em um determinado instante, mas também a probabilidade de observamos toda uma trajetória, ou trajetórias, ou partes dela.

Com as variáveis aleatórias definidas no mesmo espaço amostral, com medida de probabilidade P,\mathbb{P}, podemos representar a probabilidade do processo assumir um determinado valor x1,x_1, em um certo instante t,t, por

P(Xt=x1) \mathbb{P}(X_t = x_1)

Por sua vez, a probabilidade conjunta de observarmos uma trajetória assumindo estados x1,x2Σ,x_1, x_2\in \Sigma, em dois instantes t1,t2I,t_1, t_2 \in I, por P(Xt1=x1,Xt2=x2).\mathbb{P}(X_{t_1} = x_1, X_{t_2} = x_2). E assim por diante.

O conjunto Ω\Omega é um tanto abstrato, podendo ser representado de várias formas possíveis, ou normalmente nem sendo especificado. Mas é instrutivo pensarmos Ω,\Omega, mais concretamente, como sendo o próprio conjunto Ω=ΣI={x:IΣ}\Omega = \Sigma^I = \{x:I \rightarrow \Sigma\} de todas as trajetórias x:IΣx:I \rightarrow \Sigma possíveis, definidas no intervalo de tempo I,I, e assumindo qualquer estado em Σ.\Sigma. Naturalmente, esperamos observar só algumas trajetórias em um dado processo, o que será determinado pela probabilidade de cada trajetória, ou, mais precisamente, da probabilidade de cada subconjunto mensurável FΩ,F\subset \Omega, ou seja, de cada FF.F\in\mathcal{F}.

Pensando assim, a probabilidade P(Xt=x1)\mathbb{P}(X_t = x_1) de, em um determinado instante tI,t\in I, observamos um certo evento x1,x_1, é a probabilidade P(A)\mathbb{P}(A) do conjunto A={x:IΣ;  x(t)=x1}A = \{x:I \rightarrow \Sigma; \;x(t) = x_1\} de todas as trajetórias que passam por x1x_1 no instante t.t.

Por sua vez, a probabilidade conjunta P(Xt1=x1,Xt2=x2),\mathbb{P}(X_{t_1} = x_1, X_{t_2} = x_2), em dois instantes t1,t2It_1, t_2 \in I e para dois eventos x1,x2Σ,x_1, x_2\in \Sigma, é a probabilidade P(A)\mathbb{P}(A) do conjunto A={x:IΣ;  x(t1)=x1,  x(t2)=x2}.A = \{x:I \rightarrow \Sigma; \;x(t_1) = x_1, \;x(t_2) = x_2\}.

No caso de um processo real, i.e. em que o espaço de eventos Σ\Sigma é um subconjunto de R,\mathbb{R}, a probabilidade P\mathbb{P} pode ser caracterizada pelas funções de probabilidade acumuladas (conjuntas). A função de probabilidade acumulada no instante tt é definida por

Ft(x)=P(Xtx) F_t(x) = \mathbb{P}(X_t \leq x)

e as funções de probabilidade acumulada conjuntas, por

Ft1,,tn(x1,,xn)=P(Xt1x1,Xtnxn). F_{t_1, \ldots, t_n}(x_1, \ldots, x_n) = \mathbb{P}(X_{t_1} \leq x_1, \ldots X_{t_n} \leq x_n).

Por construção, essa família de funções de distribuição {Ft1,,tn}nN,t1,,tnI\{F_{t_1, \ldots, t_n}\}_{n\in \mathbb{N}, t_1, \ldots, t_n \in I} satisfaz duas condições fundamentais:

  1. Simetria: Sejam nN,n\in \mathbb{N}, n2,n \geq 2, e t1,,tnI.t_1, \ldots, t_n\in I. Se (i1,,in)(i_1, \ldots, i_n) é uma permutação dos índices (1,,n),(1, \ldots, n), então Fti1,,tin(xi1,,xin)=Ft1,,tn(x1,,xn),F_{t_{i_1}, \ldots, t_{i_n}}(x_{i_1}, \ldots, x_{i_n}) = F_{t_1, \ldots, t_n}(x_1, \ldots, x_n), para quaisquer x1,,xnR.x_1, \ldots, x_n \in \mathbb{R}.

  2. Compatibilidade: Para m<n,m < n, m,nN,m, n \in \mathbb{N}, e t1,,tnI,t_1, \ldots, t_n \in I, vale Ft1,,tm(x1,,xm)=Ft1,,tm,tm+1,,tn(x1,,xm,,,).F_{t_1, \ldots, t_m}(x_1, \ldots, x_m) = F_{t_1, \ldots, t_m, t_{m+1}, \ldots, t_n}(x_1, \ldots, x_m, \infty, \ldots, \infty).

Por outro lado, um resultado importante de Kolmogorov, conhecido como o Teorema Fundamental de Kolmogorov (além de outros nomes, tais como Teorema de Existência de Kolmogorov e Teorema de Extensão de Daniell-Kolmogorov) garante que qualquer família de funções de distribuição satisfazendo as condições de simetria e compatibilidade definem um processo estocástico.

Este é um dos primeiros resultados profundos envolvendo processos estocásticos contínuous. Vejam, por exemplo Kolmogorov extension theorem e Lecture 5. The Daniell-Kolmogorov existence theorem e 245A, Notes 6: Outer measures, pre-measures, and product measures. Sua demonstração é baseada no Teorema de Extensão de Carathéodory, usualmente visto em Teoria da Medida



Last modified: April 04, 2025. Built with Franklin.jl, using the Book Template.