2.8. Transformações de variáveis aleatórias

A partir de uma ou mais variáveis aleatórias, podemos obter novas variáveis aleatórias aplicando transformações no espaço de eventos.

Transformação de uma variável aleatória

Por exemplo, se \(X\) é uma variável aleatória com espaço de eventos \((\Sigma_1, \mathcal{E_1})\) e \(f:(\Sigma_1, \mathcal{E_1}) \rightarrow (\Sigma_2, \mathcal{E_2})\) é uma função mensurável desse espaço em outro, então

\[ Y = f(X) \]

denota uma variável aleatória com eventos em \(\Sigma_2\). Dado um evento \(E \in \mathcal{E}_2\), a probabilidade de \(Y\) assumir valores em \(E\) é dada por

\[ \mathbb{P}_Y(Y \in E) = \mathbb{P}_X(f(X) \in E) = \mathbb{P}_X(X \in f^{-1}(E)), \]

onde

\[ f^{-1}(E) = \{x \in \Sigma_1; \;f(x)\in E\}. \]

Um dos exemplos mais triviais possíveis é

\[ Y = aX + b \]

No caso de \(X\) ser uma distribuição uniforme, então \(Y\) também será uniforme:

\[ X \sim \mathrm{Unif}(x_1, x_2) \quad \Longrightarrow \quad Y \sim \mathrm{Unif}(b + ax_1, b + ax_2). \]

No caso de \(X\) ser normal, então \(Y\) também será normal:

\[ X \sim \mathcal{N}(\mu, \sigma^2) \quad \Longrightarrow \quad Y \sim \mathcal{N}(b + a\mu, a^2\sigma^2). \]

Observe, por exemplo, que

\[ \mathbb{E}[Y] = \mathbb{E}[aX + b] = a\mathbb{E}[X] + b = a\mu + b \]

e

\[ \mathbb{E}[(Y - \mathbb{E}[Y])^2] = \mathbb{E}[(aX + b - a\mu - b)^2] = a^2\mathbb{E}[(X-\mu)^2] = a^2\sigma^2. \]

Mas isso não mostra que \(Y\) é uma normal. Para ver isso, seja \(F\) a função de probabilidade acumulada de \(X\), i.e.

\[ F_X(x) = \mathbb{P}(X \leq x) = \frac{1}{\sqrt{2\pi \sigma^2}}\int_{-\infty}^x e^{- \frac{(\xi - \mu)^2}{2\sigma^2}}\;\mathrm{d}\xi. \]

Então a função de probabilidade acumulada de \(Y\) é

\[ F_Y(y) = \mathbb{P}(Y \leq y) = \mathbb{P}(aX + b \leq y) = \mathbb{P}\left(X \leq \frac{y - b}{a}\right) = F_X\left(\frac{y - b}{a}\right) = \frac{1}{\sqrt{2\pi \sigma^2}}\int_{-\infty}^{\frac{y - b}{a}} e^{- \frac{(\xi - \mu)^2}{2\sigma^2}}\;\mathrm{d}\xi. \]

Fazendo \(\eta = b + a\xi\), de modo que \((\eta - b)/a = \xi\) e \(\mathrm{d}\xi = \mathrm{d}\eta / a\), temos

\[ F_Y(y) = \frac{1}{\sqrt{2\pi a^2\sigma^2}}\int_{-\infty}^y e^{- \frac{(\eta - b - a\mu)^2}{2a^2\sigma^2}}\;\mathrm{d}\eta. \]

Isso prova que \(Y \sim \mathcal{N}(b + a\mu, a^2\sigma^2)\).

Transformação de várias variáveis aleatórias

Também podemos fazer isso para várias variáveis aleatórias, digamos \(X_1, \ldots, X_n\), em espaços de probabilidades \((\Omega_j, \mathcal{A}_j, \mathbb{P}_{X_1})\), com valores em \((\Sigma_j, \mathcal{E}_j)\), através de uma função mensurável

\[ f: \Sigma_1 \times \cdots \times \Sigma_2 \rightarrow \Sigma, \]

em um espaço de eventos \((\Sigma, \mathcal{E})\). O caso mais comum é quando todos os espaços de amostras são idênticos e quando todos os espaços de eventos também são idênticos, mas isso não é necessário.

Com isso, podemos definir uma variável aleatória

\[ Y = f(X_1, \ldots, X_n). \]

Nesse caso, dado um evento \(E\in \mathcal{E}\), temos

\[ \mathbb{P}_Y(Y \in E) = \mathbb{P}((X_1, \dots, X_n) \in f^{-1}(E)), \]

onde \(\mathbb{P}\) se refere à probabilidade conjunta \(\mathbb{P} = \mathbb{P}_1 \times \cdots \times \mathbb{P}_n\), na \(\sigma\)-algebra \(\mathcal{A} = \mathcal{A}_1 \times \cdots \mathcal{A}_n\) gerada no espaço produto \(\Omega = \Omega_1 \times \cdots \times \Omega_n\).

De fato, este pode ser visto como um caso particular do primeiro, considerando-se a variável aleatória vetorial \(X = (X_1, \ldots, X_n)\) em \((\Omega, \mathcal{A}, \mathbb{P})\), com \(f:\Sigma_1 \times \cdots \times \Sigma_n \rightarrow \Sigma\).

Combinação linear de distribuições normais independentes

Como exemplo, sejam \(X_1\) e \(X_2\) duas distribuições normais independentes, digamos \(X_1, X_2 \sim \mathcal{N}(0, 1)\). Definimos

\[ X = a_1 X_1 + a_2 X_2, \]

onde \(a_1, a_2 \in \mathbb{R}\). Dados \(\omega = (\omega_1, \omega_2)\) no espaço amostral \(\Omega_1 \times \Omega_2\), temos uma realização

\[ X(\omega) = a_1 X_1(\omega_1) + a_2 X(\omega_2). \]

Podemos mostrar que \(X\) também é uma normal, com

\[ X \sim \mathcal{N}(0, a_1^2 + a_2^2). \]

Mais geralmente,

\[ X_1 \sim \mathcal{N}(\mu_1, \sigma_1^2), \; X_2 \sim \mathcal{N}(\mu_2, \sigma_2^2) \quad \Longrightarrow \quad a_1 X_1 + a_2 X_2 \sim \mathcal{N}(a_1\mu_1 + a_2\mu_2, a_1^2\sigma_1^2 + a_2^2\sigma_2^2). \]

Naturalmente, isso pode ser generalizado para uma combinação linear de um número arbitrário de normais.

O fato da combinação linear ser normal requer um pouco mais de trabalho, como veremos a seguir, mas as médias e variâncias podem ser obtidas facilmente. De fato, pela linearidade da esperança,

\[ \mathbb{E}[a_1X_1 + a_2X_2] = a_1\mathbb{E}[X_1] + a_2\mathbb{E}[X_2] = a_1\mu_1 + a_2\mu_2, \]

ao passo que

\[ \begin{align*} \mathbb{E}[(a_1X_1 + a_2X_2 - a_1\mu_1 + a_2\mu_2)^2] & = \mathbb{E}[(a_1(X_1 - \mu_1) + a_2(X_2 - \mu_2))^2] \\ & = a_1^2\mathbb{E}[(X_1 - \mu_1)^2] + 2a_1a_2\mathbb{E}[(X_1 - \mu_1)(X_2 - \mu_2)] + a_2^2\mathbb{E}[(X_2 - \mu_2)^2] \\ & = a_1^2\sigma_1^2 + 2a_1a_2\mathbb{E}[X_1 - \mu_1]\mathbb{E}[X_2-\mu_2] + a_2^2\sigma_2^2 \\ & = a_1^2\sigma_1^2 + a_2^2\sigma_2^2. \end{align*} \]

Quanto ao fato da combinação linear ser uma normal, há várias demonstrações disso, por exemplo através de cálculo explícito da função acumulada de probabilidade ou da função característica. Mas a mais simples e elegante usa argumentos de simetria da normal, mais precisamente de argumentos de simetria por rotação da função densidade de probabilidades conjuntas de normais independentes com mesma variância. Mesmo que elas não tenham a mesma variância, podemos reescaloná-las. Vamos seguir, aqui, a demonstração como feita em Eisenberg & Sullivan (2008). Veja esse mesmo artigo para comentários sobre outras demonstrações.

Se \(X_1 \sim \mathcal{N}(\mu_1, \sigma_1^2)\) e \(X_2 \sim \mathcal{N}(\mu_2, \sigma_2^2)\), então podemos escrever \(X_1 = \mu_1 + \sigma_1 Y_1\) e \(X_2 = \mu_2 + \sigma_2 Y_2\), com \(Y_1, Y_2 \sim \mathcal{N}(0, 1)\). Assim,

\[ X = a_1\mu_1 + a_2\mu_2 + a_1\sigma_1 Y_1 + a_2\sigma_2 Y_2. \]

Nesse caso, \(X\) é apenas uma translação de uma combinação de normais com média zero e variância um:

\[ X - a_1\mu_1 + a_2\mu_2 = a_1\sigma_1 Y_1 + a_2\sigma_2 Y_2 \]

Então basta mostrar que

\[ b_1 Y_1 + b_2 Y_2 \sim \mathcal{N}(0, b_1^2 + b_2^2), \]

com \(b_1 = a_1\sigma_1\) e \(b_2 = a_2\sigma_2\). Para provar isso, trabalhamos com a função acumulada de probabilidade (conjunta)

\[ F(x) = \mathbb{P}(b_1 Y_1 + b_2 Y_2 \leq x). \]

Como a função densidade de probabilidades da distribuição conjunta é simétrica em relação a rotações em torno da origem e como a reta \(b_1 Y_1 + b_2 Y_2 = x\) está a uma distância

\[ d = \frac{x}{\sqrt{b_1^2 + b_2^2}} \]

da origem, então podemos fazer uma rotação do semiplano \(b_1 Y_1 + b_2 Y_2 \leq x\) para o semiplano \(Y_1 \leq d\).

Fazendo isso, teremos a mesma probabilidade:

\[ F(x) = \mathbb{P}(b_1 Y_1 + b_2 Y_2 \leq x) = \mathbb{P}(Y_1 \leq d) = F_{Y_1}\left(\frac{x}{\sqrt{b_1^2 + b_2^2}}\right) = F_{(b_1^2 + b_2^2)Y_1}(x). \]

Ou seja, \(F\) é igual à função de densidade de probabilidades da normal \(\mathcal{N}(0, b_1^2 + b_2^2)\), concidindo, portanto, com essa normal.

Um caso particular que será explorado na demonstração de existência de um processo de Wiener é a independência da soma e da diferença de normais independentes e identicamente distribuídas com média zero.

Sejam \(X, Y \sim \mathcal{N}(0, \sigma^2)\) independentes. Defina

\[ Z = X + Y, \qquad W = X - Y. \]

Primeiramente, como combinações lineares de normais, temos, pelo que acabamos de ver, que \(Z\) e \(W\) também são normais. Como \(X\) e \(Y\) têm média zero e variância \(\sigma^2\), então \(Z\) e \(W\) também têm média zero e variância \(a^2\sigma_1^2 + b^2\sigma_2^2 = 2\sigma^2\), onde \(\sigma_1 = \sigma_2 = \sigma\), \(a = 1\) e \(b = \pm 1\). Assim,

\[ Z, W \sim \mathcal{N}(0, 2\sigma^2). \]

Agora, para ver a independência entre \(Z\) e \(W\), sabendo que a média de cada uma das variáveis é zero, calculamos

\[ \mathbb{E}[ZW] = \mathbb{E}[(X+Y)(X-Y)] = \mathbb{E}[X^2 - Y^2] = \mathbb{E}[X^2] - \mathbb{E}[Y^2] = \sigma^2 - \sigma^2 = 0, \]

nos dando que a correlação entre as duas variáveis é nula e portanto elas são independentes.

Marginais normais sem vetor ser normal

Um vetor aleatório pode ter marginais normais sem ele ser uma normal multivariada. Considere, por exemplo, \(X \sim \mathcal{N}(0, 1)\) e \(Y = \pm X = (2B - 1)X,\) onde \(B \sim \operatorname{Bernoulli}(1/2)\). Temos

\[ \mathbb{P}(Y \leq y) = \frac{1}{2}\mathbb{P}(Y \leq y | B = 0) + \frac{1}{2}\mathbb{P}(Y \leq y | B = 1) = \frac{1}{2}\mathbb{P}(X \leq y) + \frac{1}{2}\mathbb{P}(-X \leq y). \]

Pela simetria da distribuição de \(X \sim \mathcal{N}(0, 1),\) temos

\[ \mathbb{P}(-X \leq y) = \mathbb{P}(X \geq -y) = \mathbb{P}(X \leq y), \]

de modo que

\[ \mathbb{P}(Y \leq y) = \frac{1}{2}\mathbb{P}(X \leq y) + \frac{1}{2}\mathbb{P}(X \leq y) = \mathbb{P}(X \leq y), \]

mostrando que a distribuição de \(Y\) é normal. Mas a distribuição do vetor aleatório \((X, Y)\) não é uma normal bivariada.

Exercícios

  1. Seja \(Y\) uma variável aleatória real e defina \(X = \sin(Y)\). Suponha que \(\mathbb{E}[Y] = 0\). Mostre que \(\mathbb{E}[X] = 0\) e \(\mathrm{Var}(X) \leq \mathrm{Var}(Y)\).



Last modified: May 03, 2024. Built with Franklin.jl, using the Book Template.