2.2. Variáveis aleatórias discretas

Uma variável aleatória discreta finita possui um conjunto finito \(\{x_1, \ldots, x_J\}\) de valores possíveis, \(K\in \mathbb{N}\), com probabilidades

\[ \mathbb{P}(X = x_j) = p_j, \quad j = 1, \ldots, J. \]

O conjunto de probabilidades \(\{p_j\}_j\) é chamada de função massa de probabilidade e, naturalmente, cada probabilidade deve ser não negativa e a soma (massa) total deve ser 1:

\[ 0 \leq p_j \leq 1, \qquad \sum_{j=1}^J p_j = 1. \]

A função distribuição acumulada é definida por

\[ f(x) = \mathbb{P}(X \leq x) = \sum_{x_j \leq x} p_j, \qquad x\in \mathbb{R}. \]

e nos dá a probabilidade de termos uma realização menor ou igual a um dado valor \(x\).

Vejamos alguns exemplos.

Variável aleatória uniforme

Quando o espaço de estados é finito, digamos \(\Sigma = \{1, 2, \ldots, N\}\), onde \(N\in \mathbb{N}\), uma variável aleatória uniforme em \(\Sigma\) é a variável aleatória em que cada estado tem chances iguais de ser realizado. Ou seja, nesse caso de \(N\) estados, temos

\[ \mathbb{P}(X = k) = \frac{1}{N}, \quad \forall k = 1, 2, \ldots, N. \]

Nesse caso, podemos escrever

\[ X \sim \textrm{Uniforme}(1, 2, \ldots, N), \]

onde \(\textrm{Uniforme}(\Sigma) = \textrm{Uniforme}(\{1, 2, \ldots, N\})\) é a distribuição uniforme em \(\Sigma = \{1, 2, \ldots, N\}\).

Teste de Bernoulli

Uma variável aleatória de Bernoulli com parâmetro \(p\), \(0\leq p \leq 1\), possui dois resultados possíveis, \(0\) e \(1\), com probabilidades \(p\) e \(1-p\), respectivamente. Ou seja, \(J = 2\), \(x_1 = 0\), \(x_2 = 1\), \(p_1 = p\) e \(p_2 = 1 - p\). Pode ser exemplificado como o resultado do lançamento de uma moeda, com \(1\) e \(0\) representando "cara" e "coroa", respectivamente. O resultado de um exame de laboratório verificando a presença de um marcador para alguma doença pode ser "positivo" ou "negativo", podendo, também, ser modelado por uma variável de Bernoulli.

Denotamos a distribuição de Bernoulli com probabilidade de sucesso \(p\) (e.g. \(\mathbb{P}(X = 1) = p\)) por \(\mathrm{Bernoulli}(p)\). Assim, uma variável aleatória de Bernouille é indicada por

\[ X \sim \mathrm{Bernoulli}(p). \]

Número de sucessos e a distribuição binomial

Podemos, também, jogar uma moeda \(n\) vezes e contarmos o número de vezes em que o resultado é "cara", por exemplo. A probabilidade de não termos nenhuma cara é \(1/2^n\), pois devemos ter exatamente \(n\) coroas lançadas, sendo que cada uma tem probabilidade 1/2 de ocorrer. A probabilidade de termos exatamente uma cara é \(n/2^n\), pois a cara pode vir em qualquer um dos \(n\) lançamentos. Mais geralmente, temos um número

\[ \left(\begin{matrix} n \\ i \end{matrix}\right) = \frac{n!}{i!(n-i)!} \]

de combinações possíveis de exatamente \(i\) resultados iguais (e.g. "caras"), em \(n\) lançamentos. Assim, se \(X\) é a variável aleatória contando o número de "caras" em \(n\) lançamentos, então a probabilidade de termos \(i\) caras é

\[ \mathbb{P}(X = i) = \frac{1}{2^n} \left(\begin{matrix} n \\ i \end{matrix}\right), \quad 1 \leq i \leq n. \]

No caso de um dado viciado, ou, mais geralmente, de \(n\) testes de Bernoulli com parâmetro \(p\), \(0\leq p \leq 1\), então a probabilidade de \(i\) sucessos é

\[ \mathbb{P}(X = i) = p^i(1-p)^{n-i} \left(\begin{matrix} n \\ i \end{matrix}\right), \quad 1 \leq i \leq n. \]

Denotamos essa distribuição binomial por \(B(n, p)\). Assim,

\[ X \sim B(n, p). \]

Tempo de espera e a distribuição geométrica

Baseado no teste de Bernoulli, podemos considerar a variável aleatória que nos dá as chances de termos sucesso após \(n\) tentativas frustradas. Ou seja, em \(n\) tentativas, temos insucesso nos primeiros \(n-1\) testes e sucesso apenas no último teste. Se a chance de sucesso é \(p\) e a de fracasso é \(1-p\), com \(0 < p \leq 1\), então temos probabilidade \((1-p)^{n-1}\) de insucessos nos \(n\) primeiros testes e \(p\) de sucesso no último teste, ou seja,

\[ \mathbb{P}(X = n) = (1-p)^{n-1}p \]

Essa distribuição é chamada de distribuição geométrica. Note que

\[ \sum_{n=1}^\infty (1-p)^{n-1}p = p + (1-p)p + (1-p)^2p + \ldots = p(1 + (1-p) + (1-p)^2 + \ldots) = p \frac{1}{p} = 1. \]

Observe que há uma questão de interpretação, aqui. A probabilidade \((1-p)^{n-1}p\) de termos sucesso apenas no \(n\)-ésimo é a mesma que a de termos apenas um sucesso em \(n\) testes, independentemente de ser no último teste ou não.

Observe, ainda, que no caso da distribuição binomial discutida acima, fixamos o número \(n\) de testes e analisamos a quantidade de sucessos nesses \(n\) testes. Já na distribuição geométrica, podemos ter um número arbitrário de testes.

A distribuição geométrica é a única distribuição enumerável "sem memória". Ou seja, se \(\mathbb{P}\) é uma probabilidade cujo espaço de eventos é \(\Sigma = \mathbb{N}\) e é tal que

\[ \mathbb{P}(X \geq m + n | X \geq m) = \mathbb{P}(X \geq n), \qquad \forall m, n \in \mathbb{N}, \]

então \(\mathbb{P}(X = n)\) é a distribuição geométrica

\[ \mathbb{P}(X = n) = (1 - p)^{n-1}p, \]

onde

\[ p = \mathbb{P}(X = 1). \]

A demonstração desse fato faz uso da fórmula para distribuição condicionada

\[ \mathbb{P}(X > m + n | X > m) = \frac{\mathbb{P}(\{X > m + n\} \cap \{X > m\})}{\mathbb{P}(X > m)}. \]

Como \(n \geq 1\), temos \(\{X > m + n\} \subset \{X > m\}\), de modo que

\[ \mathbb{P}(X > n) = \mathbb{P}(X > m + n | X > m) = \frac{\mathbb{P}(X > m + n)}{\mathbb{P}(X > m)}. \]

Ou seja,

\[ \mathbb{P}(X > m + n) = \mathbb{P}(X > n)\mathbb{P}(X > m). \]

Em particular, temos a recursão

\[ \mathbb{P}(X > n + 1) = \mathbb{P}(X > n)\mathbb{P}(X > 1), \]

cuja solução é

\[ \mathbb{P}(X > n) = \mathbb{P}(X > 1)^n. \]

Além disso, como \(\Sigma = \mathbb{N}\) e definindo \(p = \mathbb{P}(X = 1)\), temos

\[ \mathbb{P}(X > 1) = 1 - \mathbb{P}(X = 1) = 1 - p. \]

Portanto,

\[ \mathbb{P}(X > n) = (1 - p)^n. \]

Daí, tiramos que

\[ \mathbb{P}(X = 1) = \mathbb{P}(X < 1) = 1 - \mathbb{P}(X \geq 2) = 1 - p \]

e, para \(n = 2, \ldots,\)

\[ \mathbb{P}(X = n) = \mathbb{P}(X > n) - \mathbb{P}(X > n - 1) = (1 - p)^n - (1 - p)^{n - 1} = (1 - p)^{n - 1}(1 - p - 1) = (1 - p)^{n - 1}p. \]

Assim, obtemos a distribuição geométrica

\[ \mathbb{P}(X = n) = (1 - p)^{n - 1}p, \qquad \forall n\in \mathbb{N}. \]

Last modified: May 03, 2024. Built with Franklin.jl, using the Book Template.