2.9. Tipos de convergências

"Whereas weak convergence measures the error of the means, strong convergence measures the mean of the errors". - Higham & Kloeden, in An Introduction to the Numerical Simulation of Stochastic Differential Equations (SIAM, 2021) página 83, Seção 8.4.

Noções de convergência para sequências de variáveis aleatórias reais

Vamos considerar, para começar, variáveis aleatórias reais \(X\) e \(\{X_n\}_{n\in \mathbb{N}}\) em um mesmo espaço de probabilidade \((\Omega, \mathcal{A}, \mathbb{P})\).

Convergência forte ou quase certamente

Dizemos que \(X_n\)converge fortemente, ou quase sempre, ou quase certamente, ou em quase toda parte, para \(X\) quando o conjunto \(\{\omega; \;X_n(\omega) \rightarrow X(\omega)\}\) tem probabilidade total, i.e.

\[ \mathbb{P}(X_n \rightarrow X) = 1. \]

Convergência em probabilidade

Dizemos que \(X_n\)converge em probabilidade, ou em medida, para \(X\) quando

\[ \forall \varepsilon > 0, \; \mathbb{P}(|X_n - X| > \varepsilon) \rightarrow 0. \]

Convergência fraca ou em distribuição

Dizemos que \(X_n\)converge fracamente, ou em distribuição, para \(X\) quando

\[ \mathbb{P}(X_n \leq x) \rightarrow \mathbb{P}(X \leq x), \]

para todo \(x\) que seja ponto de continuidade da função \(x \mapsto \mathbb{P}(X \leq x)\) de distribuição acumulada de \(X\).

Convergência em média

Dizemos que \(X_n\)converge em média para \(X\) quando

\[ \mathbb{E}(|X_n - X|) \rightarrow 0. \]

Convergência em média quadrática

Dizemos que \(X_n\)converge em média quadrática para \(X\) quando

\[ \mathbb{E}(|X_n - X|^2) \rightarrow 0. \]

Convergência em média \(p\)

Dado \(p > 0\), dizemos que \(X_n\)converge em média p, ou converge em momento de ordem p para \(X\) quando

\[ \mathbb{E}(|X_n - X|^p) \rightarrow 0. \]

A convergência em média corresponde ao caso \(p = 1\) e a convergência em média quadrática corresponde a \(p = 2\). Em Teoria da Medida, dizemos que \(X_n\) converge para \(X\) em \(L^p(\Omega)\).

Para todo \(p \geq 1\), \(L^p(\Omega)\) forma uma espaço de Banach, que é um espaço normado completo, com norma \(\|X\|_{L^p} = \left(\mathbb{E}[|X|^p]\right)^{1/p}\). No caso \(p = 2\), temos que \(L^2(\Omega)\) é um espaço de Hilbert, que é um espaço normado completo onde a norma está associada a um produto interno. No caso, o produto interno entre duas variáveis aleatórias \(X\) e \(Y\) é \(\langle X, Y \rangle = \mathbb{E}[XY]\). A norma \(L^2(\Omega)\) é \(\|X\|_{L^2} = \sqrt{\mathbb{E}[X^2]}\).

Relações entre as convergências

Convergência forte implica em convergência em probabilidade

Considere \(\{X_n\}_n\) convergindo fortemente para \(X\). Então \(\mathbb{P}(X_n \rightarrow X) = 1\). De outra forma, temos que

\[ \mathbb{P}(\lim_{n\rightarrow \infty} X_n \neq X) = 0. \]

Podemos escrever

\[ \left\{\lim_{n\rightarrow \infty} X_n \neq X\right\} = \left\{\lim_{n\rightarrow \infty} \|X_n - X\| > 0\right\} = \bigcup_{k\in \mathbb{N}}\left\{\lim_{n\rightarrow \infty} \|X_n - X\| \geq \varepsilon_k\right\}, \]

para uma sequência qualquer \(\{\varepsilon_k\}_{k\in\mathbb{N}}\) de números positivos com \(\varepsilon_k \rightarrow 0.\) Isso implica em

\[ \mathbb{P}\left( \left\{\lim_{n\rightarrow \infty} \|X_n - X\| \geq \varepsilon_k\right\}\right) = 0, \quad \forall k\in\mathbb{N}. \]

Como \(\varepsilon_k \rightarrow 0,\) então

\[ \mathbb{P}\left( \left\{\lim_{n\rightarrow \infty} \|X_n - X\| \geq \varepsilon\right\}\right) = 0, \quad \forall \varepsilon > 0, \]

o que significa dizer que \(X_n \rightarrow X\) em probabilidade.

Convergência em probabilidade com erro somável implica em subsequência convergindo fortemente

Suponha que, para todo \(\varepsilon > 0\), vale

\[ \sum_{n=1}^\infty \mathbb{P}(|X_n - X| > \varepsilon) < \infty. \]

Então, pelo Lema de Borel-Cantelli,

\[ \mathbb{P}(\limsup_{n\rightarrow\infty} |X_n - X| > \varepsilon) = 0. \]

Observe que não há ambiguidade acima, pois

\[ \begin{align*} \limsup_{n\rightarrow\infty} \{|X_n - X| > \varepsilon\} & = \bigcap_n \bigcup_k \{\omega; |X_k - X| > \varepsilon\} \\ & = \left\{\omega; \forall n, \exists k\geq n |X_k - X| > \varepsilon \right\} \\ & = \left\{\omega; \;\limsup_{n\rightarrow \infty}|X_k - X| > \varepsilon\right\}. \end{align*} \]

Tomando uma sequência positiva \(\varepsilon_n \rightarrow 0\), temos

\[ \mathbb{P}\left(\limsup_{n\rightarrow\infty} |X_n - X| > 0\right) = \mathbb{P}\left(\bigcup_n \left(\limsup_{n\rightarrow\infty} |X_n - X| > \varepsilon_n\right)\right) = 0. \]

Logo,

\[ \mathbb{P}\left(\lim_{n\rightarrow \infty} X_n = X\right) = 1, \]

provando a convergência \(X_n \rightarrow X\) quase certamente.

Convergência em probabilidade implica em subsequência convergindo fortemente

Seja \(n_1\) tal que

\[ \mathbb{P}\left(|X_n - X| > \frac{1}{2}\right) \leq \frac{1}{2}, \qquad \forall n \geq n_1 \]

e defina, recursivamente, \(n_k > n_{k-1}\) tal que

\[ \mathbb{P}\left(|X_n - X| > \frac{1}{k}\right) \leq \frac{1}{2^k}, \qquad \forall n \geq n_k. \]

Temos

\[ \sum_k \mathbb{P}\left(|X_{n_k} - X| > \frac{1}{k}\right) < \infty. \]

Assim, para qualquer \(\varepsilon > 0\), temos

\[ \sum_k \mathbb{P}\left(|X_{n_k} - X| > \varepsilon\right) < \infty. \]

Pelo resultado anterior de convergência com erros somáveis, obtemos a convergência forte da subsequência:

\[ \mathbb{P}\left( X_{n_k} \rightarrow X \right) = 1. \]

Convergência em probabilidade de sequência monótona implica em convergência forte

Vimos acima que convergência em probabilidade implica na convergência quase certamente de uma subsequência \(X_{n_k} \rightarrow X\). Ou seja, para quase todo \(\omega\), dado \(\varepsilon > 0\), existe \(j\) tal que

\[ X - \varepsilon < X_{n_k} < X + \varepsilon, \qquad \forall k \geq j. \]

Como a sequência é monótona, digamos monótona não decrescente (é análogo caso seja não crescente), então, para todo \(n \geq n_j\), temos \(n_k \leq n < n_{k+1}\), para algum \(k \geq j\). Assim,

\[ X - \varepsilon < X_{n_k} \leq X_n \leq X_{n_{k+1}} < X + \varepsilon. \]

Em outras palavras, para todo \(\varepsilon > 0\), existe \(j\) tal que

\[ X - \varepsilon < X_n < X + \varepsilon. \]

Isso significa que, quase certamente, \(X_n \rightarrow X\), concluindo a demonstração.

Esperança convergindo e variância esvanecendo implica em convergência em probabilidade para constante

Suponha que \(\{X_n\}_{n\in\mathbb{N}}\) seja um processo discreto real tal que

\[ \mathbb{E}[X_n] \rightarrow c, \quad \mathrm{Var}(X_n) = 0. \]

Então

\[ \mathbb{P}\left(|X_n - c| > \varepsilon\right) = \int_{|X_n - c| > \varepsilon} \;\mathrm{d}F_{X_n}(x), \]

onde \(F_{X_n}(x) = \mathbb{P}(X_n < x)\) é a função de probabilidade acumulada de \(X_n.\)

Como \(1 \leq (X_n - c)^2 / \varepsilon^2\) no domínio de integração,

\[ \begin{align*} \mathbb{P}\left(|X_n - c| > \varepsilon\right) & \leq \frac{1}{\varepsilon^2}\int_{\mathbb{R}} (X_n - c)^2 \;\mathbb{d}F_{X_n}(x) \\ & \leq \frac{1}{\varepsilon^2}\int_{\mathbb{R}} (X_n - E[X_n])^2 \;\mathrm{d}F_{X_n}(x) + \frac{1}{\varepsilon^2}\int_{\mathbb{R}} (E[X_n] - c)^2 \;\mathrm{d}F_{X_n}(x) \\ & = \frac{1}{\varepsilon^2}\mathrm{Var}(X_n) + \frac{1}{\varepsilon^2}(E[X_n] - c)^2 \rightarrow 0, \quad n\rightarrow \infty, \end{align*} \]

provando a convergência em probabilidade para uma constante.

Exemplos de convergências

Sequências de normais dependentes

Considere uma variável aleatória normal \(X \sim \mathcal{N}(0, 1)\) e defina a sequência

\[ X_n = \frac{1}{n}X. \]

Observe que \(X_n \sim \mathcal{N}(0, 1/n^2)\). Vamos mostrar que essa sequência converge para zero, cuja distribuição é a delta de Dirac \(0 \sim \mathrm{Dirac}(0) = \mathcal{N}(0, 0)\), em vários sentidos.

Os caminhos amostrais são

\[ t\mapsto X_n(\omega) = \frac{\omega}{n}. \]

Observe que essas variáveis não são independentes. Para cada \(\omega\), temos

\[ X_n(\omega) = \frac{\omega}{n} \rightarrow 0, \qquad n \rightarrow 0. \]

Ou seja, \(X_n\) converge para \(0\) quase certamente. Isso implica nas outras convergências. Mas podemos prová-las diretamente. De fato, para qualquer \(\varepsilon > 0\),

\[ \mathbb{P}(|X_n| > \varepsilon) = \mathbb{P}(|X| > n\varepsilon ) \rightarrow 0, \qquad n \rightarrow 0, \]

mostrando a convergência em probabilidade. Agora, observe que a função de distribuição acumulada da variável limite (igual a zero quase sempre) é

\[ F(x) = \begin{cases} 0, & x < 0, \\ 1, & x \geq 0. \end{cases} \]

Os pontos de continuidade de \(F\) são os pontos \(x \neq 0\). Nesses pontos, temos,

\[ \mathbb{P}(X_n \leq x) = \mathbb{P}(X \leq n x) \rightarrow \begin{cases} 0, & x < 0, \\ 1, & x > 0. \end{cases} \]

No ponto de descontinuidade \(x = 0\), temos

\[ \mathbb{P}(X_n \leq 0) = \frac{1}{2}, \]

mas isso não atrapalha a convergência \(X_n \rightarrow 0\) em distribuição.

A convergência em média quadrática pode ser obtida diretamente da variância de cada termo da sequência:

\[ \mathbb{P}(|X_n - 0|^2) = \mathrm{Var}(X_n) = \frac{1}{n^2} \rightarrow 0, \qquad n \rightarrow \infty. \]

Sequências de normais independentes

Podemos considerar sequências independentes definindo \(\Omega = \mathbb{R}^\mathbb{N} = \{\omega = (\omega_1, \omega_2, \ldots); \;\omega_n\in \mathbb{R}\}\) e definindo \(\mathbb{P}\) por

\[ \mathbb{P}(X_{n_1} \leq x_1, \ldots, X_{n_k} \leq x_k) = \mathbb{P}(X_{n_1}\leq x_1)\times \cdots \times \mathbb{P}(X_{n_k}\leq x_k), \]

onde a distribuição de cada \(X_n\) é uma Gaussiana

\[ \frac{1}{\sqrt{2\pi \sigma_n^2}}e^{-x^2/2\sigma_n^2}, \]

onde \(\sigma_n > 0\).



Last modified: May 03, 2024. Built with Franklin.jl, using the Book Template.