Sumário


1 Objetivo

Neste relatório, vamos citar os seguintes itens:

1.DISTRIBUIÇÃO GEOMÉTRICA

•   DISTRIBUIÇÃO BINOMIAL NEGATIVA

•   DISTRIBUIÇÃO HIPERGEOMÉTRICA

•   DISTRIBUIÇÃO MULTINOMIAL

•   DISTRIBUIÇÃO UNIFORME

2.VARIÁVEIS ALEATÓRIAS CONTÍNUAS

•   DISTRIBUIÇÃO EXPONENCIAL

•   DISTRIBUIÇÃO UNIFORME

•   DISTRIBUIÇÃO GAMA

•   DISTRIBUIÇÃO QUI-QUADRADO

•   DISTRIBUIÇÃO F

2 Variável Aleatória Discreta

2.0.1 Variável Aleatória Discreta com Distribuição Uniforme

A distribuição uniforme é um tipo de distribuição de probabilidade onde todos os valores em um determinado intervalo têm a mesma probabilidade de ocorrer. Existem dois tipos principais de distribuições uniformes: discreta e contínua.

2.0.1.1 Lançamento de um dado justo

Quando você lança um dado de seis faces justas, a probabilidade de qualquer face aparecer é a mesma, ou seja, cada valor tem uma probabilidade igual de \(\frac{1}{6}\).

  • Variável aleatória: \(X\), que representa o número que aparece ao lançar o dado.
  • Valores possíveis: 1, 2, 3, 4, 5, 6.
  • Distribuição: Uniforme discreta, porque cada número tem a mesma probabilidade de \(P(X = k) = \frac{1}{6}\), onde \(k\) é um número de 1 a 6.

2.1 Variável Aleatória Contínua com Distribuição Uniforme

2.1.0.1 Tempo de espera por um ônibus

Suponha que você esteja esperando um ônibus que pode chegar a qualquer momento entre 10 e 20 minutos, e você não tem nenhuma informação adicional sobre quando ele virá. Isso significa que o tempo de espera \(X\) segue uma distribuição uniforme contínua entre 10 e 20 minutos.

  • Variável aleatória: \(X\), que representa o tempo de espera em minutos.

  • Intervalo de valores possíveis: \([10, 20]\).

  • Função densidade de probabilidade (PDF): Como \(X\) é uma variável aleatória com distribuição uniforme contínua no intervalo \([a, b]\), a função densidade de probabilidade é dada por:

    \[ f(x) = \frac{1}{b - a}, \quad a \leq x \leq b \]

    Neste caso, \(a = 10\) e \(b = 20\), então:

    \[ f(x) = \frac{1}{20 - 10} = \frac{1}{10}, \quad 10 \leq x \leq 20 \]

Isso significa que, para qualquer tempo entre 10 e 20 minutos, a probabilidade é constante, e cada valor dentro desse intervalo tem a mesma chance de ocorrer.

2.2 Variável Aleatória Discreta com Distribuição Uniforme

2.2.0.1 Escolha aleatória de uma carta de um baralho

Se você escolher aleatoriamente uma carta de um baralho de 52 cartas, a probabilidade de escolher qualquer uma das cartas é a mesma, ou seja, \(\frac{1}{52}\).

  • Variável aleatória: \(X\), que representa a carta escolhida (por exemplo, pode ser 1 para o Ás de Espadas, 2 para o 2 de Copas, e assim por diante).
  • Valores possíveis: \(1, 2, 3, \ldots, 52\) (representando todas as 52 cartas no baralho).
  • Distribuição: Uniforme discreta, pois a probabilidade de cada carta ser escolhida é a mesma: \(P(X = k) = \frac{1}{52}\), onde \(k\) é um valor de 1 a 52.

2.3 Variável Aleatória Contínua com Distribuição Uniforme

2.3.0.1 Comprimento de um fio cortado aleatoriamente

Imagine que você tem um fio de comprimento 1 metro e decide cortá-lo em um ponto aleatório ao longo do seu comprimento. O ponto de corte \(X\) pode estar em qualquer posição entre 0 e 1 metro, e cada ponto tem a mesma probabilidade de ser escolhido.

  • Variável aleatória: \(X\), que representa a posição do ponto de corte em metros.

  • Intervalo de valores possíveis: \([0, 1]\).

  • Função densidade de probabilidade (PDF): A função de densidade para uma variável com distribuição uniforme contínua no intervalo \([0, 1]\) é dada por:

    \[ f(x) = 1, \quad 0 \leq x \leq 1 \]

Neste exemplo, qualquer ponto de corte ao longo do fio tem a mesma probabilidade de ocorrer.

3 Distribuição geométrica

A distribuição geométrica é uma distribuição de probabilidade discreta que modela o número de tentativas até que ocorra o primeiro sucesso em uma sequência de experimentos de Bernoulli, onde cada experimento tem apenas dois resultados possíveis: sucesso ou fracasso.

3.1 Distribuição binomial negativa

A distribuição binomial negativa é uma generalização da distribuição geométrica. Enquanto a distribuição geométrica modela o número de tentativas até o primeiro sucesso, a distribuição binomial negativa modela o número de tentativas até que ocorram r sucessos, onde \(r\) é um número inteiro fixo.

3.1.1 Características da Distribuição Binomial Negativa

  • Experimento de Bernoulli: Em cada tentativa, pode ocorrer sucesso ou fracasso, com probabilidade de sucesso \(p\) e probabilidade de fracasso \(1 - p\), de forma que os experimentos são independentes.

  • Número de sucessos: A distribuição binomial negativa modela o número de tentativas \(X\) até que \(r\) sucessos ocorram.

  • Função de probabilidade:

    A função de probabilidade de \(X\), o número de tentativas necessárias para obter \(r\) sucessos, é dada por:

    \[ P(X = k) = \binom{k - 1}{r - 1} \cdot p^r \cdot (1 - p)^{k - r} \]

    Onde:

    • \(k\) é o número total de tentativas.
    • \(r\) é o número de sucessos desejados.
    • \(p\) é a probabilidade de sucesso em cada tentativa.
    • \(\binom{k - 1}{r - 1}\) é o número de combinações.

3.1.2 Exemplo 1: Atirando até acertar um alvo três vezes

Imagine que você está atirando em um alvo e a probabilidade de acertar o alvo em cada tiro é \(p = 0.3\). Você quer saber quantas tentativas (tiros) serão necessárias para acertar o alvo três vezes.

Aqui: - \(r = 3\) (você quer 3 sucessos, ou seja, acertar o alvo três vezes). - \(p = 0.3\) (a probabilidade de sucesso em cada tiro). - \(X\) representa o número de tiros necessários para obter três acertos.

Se você deseja calcular a probabilidade de acertar o alvo três vezes em exatamente cinco tentativas (\(X = 5\)):

\[ P(X = 5) = \binom{5-1}{3-1} \cdot 0.3^3 \cdot (1 - 0.3)^{5-3} \]

\[ P(X = 5) = \binom{4}{2} \cdot 0.3^3 \cdot 0.7^2 \]

\[ P(X = 5) = 6 \cdot (0.027) \cdot (0.49) = 6 \cdot 0.01323 \approx 0.0794 \]

Portanto, a probabilidade de acertar o alvo três vezes em exatamente cinco tiros é de aproximadamente 7,94%.

3.1.3 Exemplo 2: Jogando uma moeda até obter quatro caras

Considere um jogo onde você joga uma moeda justa (\(p = 0.5\)) até obter quatro caras. Aqui:

  • \(r = 4\) (você quer 4 sucessos, ou seja, 4 caras).
  • \(p = 0.5\) (a probabilidade de sucesso, ou seja, de obter cara em cada lançamento).
  • \(X\) representa o número total de lançamentos necessários para obter quatro caras.

Agora, digamos que você quer calcular a probabilidade de obter exatamente quatro caras em sete lançamentos:

\[ P(X = 7) = \binom{7-1}{4-1} \cdot 0.5^4 \cdot (1 - 0.5)^{7-4} \]

\[ P(X = 7) = \binom{6}{3} \cdot 0.5^4 \cdot 0.5^3 \]

\[ P(X = 7) = 20 \cdot 0.5^7 = 20 \cdot \frac{1}{128} \approx 0.15625 \]

Portanto, a probabilidade de obter quatro caras em exatamente sete lançamentos é de aproximadamente 15,6%.

3.1.4 Exemplo 3: Chamadas até atender três clientes

Suponha que você seja um atendente de um call center, e a probabilidade de conseguir atender um cliente em cada chamada seja \(p = 0.4\). Você quer saber quantas chamadas precisará fazer até conseguir atender três clientes.

  • \(r = 3\) (você quer atender 3 clientes).
  • \(p = 0.4\) (a probabilidade de atender um cliente em uma chamada).
  • \(X\) é o número total de chamadas até conseguir atender três clientes.

Se você quiser saber a probabilidade de atender três clientes em exatamente cinco chamadas:

\[ P(X = 5) = \binom{5-1}{3-1} \cdot 0.4^3 \cdot (1 - 0.4)^{5-3} \]

\[ P(X = 5) = \binom{4}{2} \cdot 0.4^3 \cdot 0.6^2 \]

\[ P(X = 5) = 6 \cdot (0.064) \cdot (0.36) = 6 \cdot 0.02304 = 0.13824 \]

Portanto, a probabilidade de atender três clientes em cinco chamadas é de aproximadamente 13,8%.

3.2 Distribuição Hipergeométrica

A distribuição hipergeométrica é uma distribuição de probabilidade discreta usada em situações em que estamos interessados em amostras sem reposição de uma população finita. A principal diferença em relação à distribuição binomial é que, na distribuição hipergeométrica, a probabilidade de sucesso muda a cada tentativa porque os elementos não são recolocados na população.

3.2.1 Características da Distribuição Hipergeométrica

  • Uma população finita contém \(N\) itens.
  • Dessa população, \(K\) itens são classificados como sucessos (o que nos interessa).
  • Os outros \(N - K\) itens são fracassos.
  • Uma amostra de \(n\) itens é retirada sem reposição.
  • A variável aleatória \(X\) representa o número de sucessos na amostra.

A função de probabilidade da distribuição hipergeométrica é dada por:

\[ P(X = k) = \frac{\binom{K}{k} \binom{N - K}{n - k}}{\binom{N}{n}} \]

Onde: - \(N\) é o tamanho da população. - \(K\) é o número de sucessos na população. - \(n\) é o tamanho da amostra. - \(k\) é o número de sucessos que estamos interessados em encontrar na amostra.

3.2.2 Exemplo 1: Seleção de cartas de um baralho

Imagine que você tem um baralho de 52 cartas, das quais 4 são ases (sucessos) e 48 são outras cartas (fracassos). Você seleciona 5 cartas aleatoriamente, sem reposição, e quer saber a probabilidade de obter exatamente 2 ases.

Aqui: - \(N = 52\) (o número total de cartas). - \(K = 4\) (o número de ases no baralho). - \(n = 5\) (o número de cartas retiradas). - \(k = 2\) (o número de ases que queremos na mão).

Usando a fórmula da distribuição hipergeométrica:

\[ P(X = 2) = \frac{\binom{4}{2} \binom{48}{3}}{\binom{52}{5}} \]

Primeiro, calculamos os coeficientes binomiais: - \(\binom{4}{2} = \frac{4!}{2!(4-2)!} = 6\) - \(\binom{48}{3} = \frac{48!}{3!(48-3)!} = 17,296\) - \(\binom{52}{5} = \frac{52!}{5!(52-5)!} = 2,598,960\)

Agora, substituímos os valores:

\[ P(X = 2) = \frac{6 \cdot 17,296}{2,598,960} \approx 0.0399 \]

Portanto, a probabilidade de obter exatamente 2 ases ao retirar 5 cartas do baralho é aproximadamente 3,99%.


3.2.3 Exemplo 2: Inspeção de qualidade

Uma fábrica tem um lote de 20 produtos, dos quais 5 são defeituosos (sucessos). Um inspetor seleciona 6 produtos aleatoriamente e sem reposição. Qual é a probabilidade de que exatamente 2 dos produtos selecionados sejam defeituosos?

Aqui: - \(N = 20\) (o número total de produtos no lote). - \(K = 5\) (o número de produtos defeituosos). - \(n = 6\) (o número de produtos selecionados). - \(k = 2\) (o número de produtos defeituosos que queremos na amostra).

Usando a fórmula da distribuição hipergeométrica:

\[ P(X = 2) = \frac{\binom{5}{2} \binom{15}{4}}{\binom{20}{6}} \]

Calculando os coeficientes binomiais: - \(\binom{5}{2} = 10\) - \(\binom{15}{4} = 1365\) - \(\binom{20}{6} = 38,760\)

Agora, substituímos os valores:

\[ P(X = 2) = \frac{10 \cdot 1365}{38,760} = \frac{13,650}{38,760} \approx 0.352 \]

Portanto, a probabilidade de que exatamente 2 produtos defeituosos sejam selecionados entre os 6 produtos inspecionados é de aproximadamente 35,2%.


3.2.4 Exemplo 3: Amostragem de uma urna de bolas

Suponha que você tenha uma urna contendo 30 bolas, das quais 12 são vermelhas (sucessos) e 18 são de outras cores (fracassos). Você retira 8 bolas aleatoriamente e sem reposição. Qual é a probabilidade de obter exatamente 3 bolas vermelhas?

Aqui: - \(N = 30\) (o número total de bolas). - \(K = 12\) (o número de bolas vermelhas). - \(n = 8\) (o número de bolas retiradas). - \(k = 3\) (o número de bolas vermelhas que queremos).

Usando a fórmula da distribuição hipergeométrica:

\[ P(X = 3) = \frac{\binom{12}{3} \binom{18}{5}}{\binom{30}{8}} \]

Calculando os coeficientes binomiais: - \(\binom{12}{3} = 220\) - \(\binom{18}{5} = 8568\) - \(\binom{30}{8} = 585,292\)

Agora, substituímos os valores:

\[ P(X = 3) = \frac{220 \cdot 8568}{585,292} = \frac{1,884,960}{585,292} \approx 0.3219 \]

Portanto, a probabilidade de retirar exatamente 3 bolas vermelhas ao retirar 8 bolas da urna é de aproximadamente 32,19%.


3.2.5 Exemplo 4: Seleção de equipe

Suponha que uma empresa tem 40 candidatos, dos quais 25 são homens (sucessos) e 15 são mulheres (fracassos). A empresa deseja formar uma equipe de 10 pessoas. Qual é a probabilidade de que exatamente 7 dos selecionados sejam homens?

Aqui: - \(N = 40\) (o número total de candidatos). - \(K = 25\) (o número de homens). - \(n = 10\) (o número de pessoas selecionadas). - \(k = 7\) (o número de homens que queremos na equipe).

Usando a fórmula da distribuição hipergeométrica:

\[ P(X = 7) = \frac{\binom{25}{7} \binom{15}{3}}{\binom{40}{10}} \]

Calculando os coeficientes binomiais: - \(\binom{25}{7} = 480700\) - \(\binom{15}{3} = 455\) - \(\binom{40}{10} = 847,660,528\)

Agora, substituímos os valores:

\[ P(X = 7) = \frac{480700 \cdot 455}{847,660,528} \approx 0.000257 \]

Portanto, a probabilidade de que exatamente 7 homens sejam selecionados na equipe de 10 pessoas é de aproximadamente 0,0257% (um valor bastante baixo).

3.3 Distribuição Multinomial

A distribuição multinomial é uma generalização da distribuição binomial, utilizada para descrever experimentos onde há mais de duas categorias de resultados possíveis. Cada evento tem uma probabilidade associada a uma das \(k\) categorias, e a soma das probabilidades de todas as categorias deve ser 1.

3.3.1 Exemplo 1: Lançamento de um dado

Imagine que você lança um dado de seis faces 10 vezes. Cada face do dado tem a mesma probabilidade de \(\frac{1}{6}\). O número de vezes que cada face aparece em 10 lançamentos segue uma distribuição multinomial, onde: - \(k = 6\) (as seis faces do dado), - \(n = 10\) (número de lançamentos), - Probabilidades: \(p_1 = p_2 = p_3 = p_4 = p_5 = p_6 = \frac{1}{6}\).

3.3.2 Exemplo 2: Pesquisa de opinião com várias respostas

Em uma pesquisa de opinião, você pergunta a 100 pessoas qual é o seu esporte favorito entre 4 opções: futebol, basquete, vôlei e tênis. Suponha que as probabilidades de uma pessoa escolher cada esporte são: - Futebol: 40%, - Basquete: 30%, - Vôlei: 20%, - Tênis: 10%.

O número de pessoas que escolhem cada esporte segue uma distribuição multinomial com \(n = 100\) e \(p_1 = 0,4\), \(p_2 = 0,3\), \(p_3 = 0,2\), \(p_4 = 0,1\).

3.3.3 Exemplo 3: Cores de bolas em uma urna

Imagine que você tem uma urna com 3 cores de bolas: vermelha, azul e verde, com probabilidades de \(0,5\), \(0,3\) e \(0,2\) respectivamente. Se você retirar 15 bolas da urna, o número de bolas de cada cor que você retira segue uma distribuição multinomial com: - \(k = 3\) (as três cores), - \(n = 15\) (número de retiradas), - \(p_1 = 0,5\), \(p_2 = 0,3\), \(p_3 = 0,2\).

3.4 Distribuição Uniforme

A distribuição uniforme é um tipo de distribuição de probabilidade em que todos os resultados possíveis de um evento têm a mesma probabilidade de ocorrer. Pode ser discreta (com um número finito de resultados) ou contínua (com um intervalo de resultados possíveis).

3.4.1 Exemplo 1: Lançamento de um dado

Ao lançar um dado justo de seis faces, cada face tem a mesma probabilidade de \(\frac{1}{6}\) de aparecer. Isso representa uma distribuição uniforme discreta, onde os resultados possíveis são os números de 1 a 6, e a probabilidade de cada um é a mesma.

  • Espaço amostral: \(\{1, 2, 3, 4, 5, 6\}\),
  • Probabilidade de cada resultado: \(P(X = x) = \frac{1}{6}\) para cada \(x \in \{1, 2, 3, 4, 5, 6\}\).

3.4.2 Exemplo 2: Sorteio de uma carta de um baralho

Se você escolher uma carta aleatoriamente de um baralho de 52 cartas, a probabilidade de tirar qualquer uma das 52 cartas é a mesma, ou seja, \(\frac{1}{52}\). Isso é uma distribuição uniforme discreta.

  • Espaço amostral: 52 cartas do baralho,
  • Probabilidade de cada carta: \(P(X = x) = \frac{1}{52}\).

4 Variáveis aleatórias contínuas

4.1 Distribuição Exponencial

A distribuição exponencial é utilizada para modelar o tempo entre eventos que ocorrem de forma independente e com uma taxa constante, sendo comum em processos de “tempo de espera”.

4.1.1 Exemplo 1: Tempo até a falha de um equipamento

Se você está monitorando um equipamento eletrônico que tem uma vida útil de 5 anos, e a probabilidade de falha é constante ao longo do tempo, o tempo até a falha pode ser modelado por uma distribuição exponencial. Suponha que a taxa de falha seja \(\lambda = 0,2\) falhas por ano. O tempo de vida \(T\) do equipamento segue uma distribuição exponencial com parâmetro \(\lambda = 0,2\).

  • Variável aleatória: \(T\) (tempo até a falha),
  • Função de densidade de probabilidade (PDF): \(f(t) = 0,2 e^{-0,2t}\), para \(t \geq 0\).

4.1.2 Exemplo 2: Tempo de espera por um táxi

Se os táxis chegam aleatoriamente a um ponto e você sabe que, em média, um táxi chega a cada 10 minutos, o tempo de espera até o próximo táxi chegar pode ser modelado por uma distribuição exponencial com \(\lambda = \frac{1}{10}\) (ou seja, uma taxa de 0,1 táxis por minuto).

  • Variável aleatória: \(T\) (tempo até o próximo táxi chegar),
  • Função de densidade de probabilidade (PDF): \(f(t) = 0,1 e^{-0,1t}\), para \(t \geq 0\).

4.1.3 Exemplo 3: Tempo de atendimento em um caixa eletrônico

Imagine que o tempo de atendimento de um cliente em um caixa eletrônico siga um processo aleatório, com uma taxa média de \(\lambda = 3\) clientes atendidos por minuto. O tempo de atendimento de um cliente segue uma distribuição exponencial com parâmetro \(\lambda = 3\) (clientes por minuto).

  • Variável aleatória: \(T\) (tempo de atendimento de um cliente),
  • Função de densidade de probabilidade (PDF): \(f(t) = 3 e^{-3t}\), para \(t \geq 0\).

4.1.4 Exemplo 4: Tempo entre chamadas telefônicas em uma central de atendimento

Se chamadas telefônicas chegam de forma aleatória em uma central de atendimento, com uma taxa média de 5 chamadas por hora, o tempo entre uma chamada e outra pode ser modelado por uma distribuição exponencial com \(\lambda = 5\) chamadas por hora.

  • Variável aleatória: \(T\) (tempo entre chamadas),
  • Função de densidade de probabilidade (PDF): \(f(t) = 5 e^{-5t}\), para \(t \geq 0\).

4.1.5 Exemplo 5: Decaimento radioativo

O tempo que uma partícula radioativa demora para decair pode ser modelado por uma distribuição exponencial, se o decaimento ocorre com uma taxa constante ao longo do tempo. Suponha que a taxa de decaimento de um certo material seja \(\lambda = 0,01\) decaimentos por segundo. O tempo até o próximo decaimento segue uma distribuição exponencial com parâmetro \(\lambda = 0,01\).

  • Variável aleatória: \(T\) (tempo até o decaimento),
  • Função de densidade de probabilidade (PDF): \(f(t) = 0,01 e^{-0,01t}\), para \(t \geq 0\).

4.2 Distribuição Uniforme

A distribuição uniforme descreve variáveis aleatórias onde todos os valores em um intervalo \([a, b]\) têm a mesma probabilidade de ocorrer.

4.2.1 Exemplo 1: Horário de chegada de uma pessoa

Imagine que uma pessoa chega aleatoriamente a um compromisso entre 9h e 10h da manhã. O horário de chegada dessa pessoa segue uma distribuição uniforme contínua no intervalo de tempo entre 9h (0 minutos) e 10h (60 minutos).

  • Variável aleatória: \(T\) (tempo de chegada, em minutos após as 9h),
  • Intervalo: \(T \sim U(0, 60)\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{1}{60}\), para \(0 \leq t \leq 60\).

4.2.2 Exemplo 2: Temperatura de uma máquina entre limites controlados

Suponha que a temperatura de uma máquina seja controlada automaticamente para se manter entre 70°C e 90°C, e qualquer valor dentro desse intervalo tem a mesma probabilidade de ocorrer. A temperatura em um dado momento segue uma distribuição uniforme contínua.

  • Variável aleatória: \(T\) (temperatura em graus Celsius),
  • Intervalo: \(T \sim U(70, 90)\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{1}{20}\), para \(70 \leq t \leq 90\).

4.2.3 Exemplo 3: Escolha aleatória de um ponto em um segmento de reta

Se você escolhe aleatoriamente um ponto em um segmento de reta que vai de 0 a 5 metros, a posição do ponto ao longo do segmento segue uma distribuição uniforme contínua no intervalo \([0, 5]\).

  • Variável aleatória: \(X\) (posição do ponto em metros),
  • Intervalo: \(X \sim U(0, 5)\),
  • Função de densidade de probabilidade (PDF): \(f(x) = \frac{1}{5}\), para \(0 \leq x \leq 5\).

4.2.4 Exemplo 4: Tensão de um capacitor em uma faixa de operação

Um capacitor pode operar com uma tensão entre 10 e 20 volts, e a tensão pode ser qualquer valor dentro desse intervalo com a mesma probabilidade. A tensão instantânea no capacitor pode ser modelada por uma distribuição uniforme contínua.

  • Variável aleatória: \(V\) (tensão em volts),
  • Intervalo: \(V \sim U(10, 20)\),
  • Função de densidade de probabilidade (PDF): \(f(v) = \frac{1}{10}\), para \(10 \leq v \leq 20\).

4.2.5 Exemplo 5: Tempo de execução de um algoritmo entre limites conhecidos

Suponha que um algoritmo sempre executa em um tempo entre 2 e 6 segundos, e o tempo de execução varia uniformemente entre esses limites. O tempo de execução do algoritmo segue uma distribuição uniforme contínua.

  • Variável aleatória: \(T\) (tempo de execução, em segundos),
  • Intervalo: \(T \sim U(2, 6)\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{1}{4}\), para \(2 \leq t \leq 6\).

4.3 Distribuição Gama

A distribuição Gama é uma distribuição contínua que é frequentemente utilizada para modelar o tempo até a ocorrência de \(k\) eventos em um processo Poisson, onde os eventos ocorrem de forma independente e a uma taxa constante. A distribuição Gama é parametrizada por dois parâmetros: a forma \(k\) (um número positivo) e a taxa \(\theta\) (ou o inverso da taxa, conhecido como escala). Ela generaliza a distribuição exponencial (quando \(k = 1\)).

4.3.1 Exemplo 1: Tempo até que \(k\) clientes sejam atendidos

Imagine que um caixa de banco atenda clientes a uma taxa de 2 clientes por minuto, e você quer saber o tempo até que 5 clientes sejam atendidos. O tempo de atendimento de cada cliente segue uma distribuição exponencial, e o tempo total até que 5 clientes sejam atendidos segue uma distribuição Gama com \(k = 5\) e \(\theta = 0,5\) (porque a taxa é de 2 clientes por minuto, e a escala é o inverso da taxa).

  • Variável aleatória: \(T\) (tempo até 5 clientes serem atendidos),
  • Parâmetros: \(k = 5\), \(\theta = 0,5\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{t^{k-1}e^{-t/\theta}}{\theta^k \Gamma(k)}\), onde \(\Gamma(k)\) é a função gama.

4.3.2 Exemplo 2: Tempo de vida útil de uma máquina com várias componentes

Suponha que a vida útil de uma máquina dependa do funcionamento de 3 componentes independentes. Cada componente tem uma vida útil que segue uma distribuição exponencial com uma taxa de falha de \(\lambda = 0,1\) falhas por hora. O tempo total de vida útil da máquina, antes que as 3 componentes falhem, segue uma distribuição Gama com \(k = 3\) e \(\theta = 10\) horas (porque a taxa é \(\lambda = 0,1\) e a escala \(\theta = 1/\lambda = 10\)).

  • Variável aleatória: \(T\) (tempo de vida útil da máquina),
  • Parâmetros: \(k = 3\), \(\theta = 10\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{t^2 e^{-t/10}}{10^3 \Gamma(3)}\).

4.3.3 Exemplo 3: Tempo até que 4 peças defeituosas sejam encontradas em uma linha de produção

Em uma linha de produção, peças defeituosas aparecem aleatoriamente a uma taxa de \(1\) defeito a cada 20 minutos. O tempo total até que 4 peças defeituosas sejam encontradas segue uma distribuição Gama com \(k = 4\) e \(\theta = 20\).

  • Variável aleatória: \(T\) (tempo até encontrar 4 defeitos),
  • Parâmetros: \(k = 4\), \(\theta = 20\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{t^3 e^{-t/20}}{20^4 \Gamma(4)}\).

4.3.4 Exemplo 4: Tempo de processamento de tarefas em paralelo

Imagine que um sistema realiza 6 tarefas independentes, cada uma das quais tem um tempo de processamento que segue uma distribuição exponencial com uma média de 3 minutos por tarefa. O tempo total de processamento de todas as 6 tarefas segue uma distribuição Gama com \(k = 6\) e \(\theta = 3\).

  • Variável aleatória: \(T\) (tempo total para completar 6 tarefas),
  • Parâmetros: \(k = 6\), \(\theta = 3\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{t^5 e^{-t/3}}{3^6 \Gamma(6)}\).

4.3.5 Exemplo 5: Tempo até que 2 eventos ocorram em um processo Poisson com taxa variável

Em um processo Poisson onde eventos ocorrem a uma taxa de 0,5 eventos por minuto, o tempo até que 2 eventos ocorram segue uma distribuição Gama com \(k = 2\) e \(\theta = 2\) minutos (porque a taxa \(\lambda\) é 0,5 eventos por minuto, e o inverso da taxa é a escala \(\theta = 2\)).

  • Variável aleatória: \(T\) (tempo até 2 eventos ocorrerem),
  • Parâmetros: \(k = 2\), \(\theta = 2\),
  • Função de densidade de probabilidade (PDF): \(f(t) = \frac{t e^{-t/2}}{2^2 \Gamma(2)}\).

4.4 Distribuição Qui-quadrado

A distribuição qui-quadrado (\(\chi^2\)) é uma distribuição contínua comumente utilizada em inferência estatística, especialmente em testes de hipóteses e análise de variância. Ela surge principalmente como a soma dos quadrados de variáveis aleatórias independentes que seguem uma distribuição normal padrão. A distribuição qui-quadrado tem um único parâmetro, o número de graus de liberdade (\(k\)), que corresponde ao número de variáveis normais independentes somadas.

4.4.1 Exemplo 1: Soma de quadrados de variáveis normais padrão

Se você tem \(k\) variáveis independentes \(X_1, X_2, ..., X_k\), cada uma delas seguindo uma distribuição normal padrão (\(N(0,1)\)), a soma dos quadrados dessas variáveis, \(X_1^2 + X_2^2 + ... + X_k^2\), segue uma distribuição qui-quadrado com \(k\) graus de liberdade.

  • Variável aleatória: \(S = X_1^2 + X_2^2 + ... + X_k^2\),
  • Parâmetro: \(k\) (graus de liberdade),
  • \(S \sim \chi^2_k\).

4.4.2 Exemplo 2: Teste qui-quadrado de independência

No teste qui-quadrado de independência, utilizado para verificar se duas variáveis categóricas são independentes, a estatística de teste segue uma distribuição qui-quadrado. Se você tem uma tabela de contingência de \(r\) linhas e \(c\) colunas, a estatística de teste \(\chi^2\) é calculada a partir das diferenças entre as frequências observadas e as frequências esperadas. Essa estatística segue uma distribuição qui-quadrado com \((r - 1)(c - 1)\) graus de liberdade.

  • Variável aleatória: Estatística \(\chi^2\),
  • Parâmetro: \((r-1)(c-1)\) graus de liberdade,
  • \(\chi^2 \sim \chi^2_{(r-1)(c-1)}\).

4.4.3 Exemplo 3: Teste qui-quadrado de ajuste de bondade

O teste qui-quadrado de ajuste de bondade é usado para verificar se uma amostra de dados segue uma distribuição teórica específica. A estatística do teste \(\chi^2\), que compara as frequências observadas com as esperadas, segue uma distribuição qui-quadrado com \(k - 1\) graus de liberdade, onde \(k\) é o número de categorias ou classes no teste.

  • Variável aleatória: Estatística \(\chi^2\),
  • Parâmetro: \(k-1\) graus de liberdade,
  • \(\chi^2 \sim \chi^2_{k-1}\).

4.4.4 Exemplo 4: Variância de uma amostra normal

Se você tem uma amostra de \(n\) observações \(X_1, X_2, ..., X_n\) de uma população normal com média \(\mu\) e variância \(\sigma^2\), então a variância amostral ajustada \(S^2\), multiplicada por \(\frac{(n-1)}{\sigma^2}\), segue uma distribuição qui-quadrado com \(n-1\) graus de liberdade.

  • Variável aleatória: \(\frac{(n-1)S^2}{\sigma^2}\),
  • Parâmetro: \(n-1\) graus de liberdade,
  • \(\frac{(n-1)S^2}{\sigma^2} \sim \chi^2_{n-1}\).

4.4.5 Exemplo 5: Soma dos quadrados dos erros em uma regressão linear

Na análise de regressão linear, a soma dos quadrados dos erros (diferenças entre os valores observados e os valores ajustados pelo modelo) segue uma distribuição qui-quadrado. Se o modelo envolve \(k\) parâmetros, a soma dos quadrados dos erros segue uma distribuição qui-quadrado com \(n - k\) graus de liberdade, onde \(n\) é o número de observações.

  • Variável aleatória: Soma dos quadrados dos erros \(SSE\),
  • Parâmetro: \(n - k\) graus de liberdade,
  • \(SSE \sim \chi^2_{n - k}\).

4.4.6 Exemplo 6: Tempo entre falhas em um sistema de componentes independentes

Se um sistema tem \(k\) componentes independentes, e o tempo até a falha de cada componente segue uma distribuição exponencial, o tempo total até a falha de todos os componentes segue uma distribuição qui-quadrado com \(2k\) graus de liberdade. Isso ocorre porque a soma de \(k\) variáveis exponenciais independentes pode ser expressa como uma variável qui-quadrado.

  • Variável aleatória: Tempo até a falha total,
  • Parâmetro: \(2k\) graus de liberdade,
  • \(T \sim \chi^2_{2k}\).

A distribuição F (ou distribuição de Fisher-Snedecor) é uma distribuição contínua utilizada principalmente para comparar variâncias de duas populações, sendo comum em testes estatísticos, como a análise de variância (ANOVA) e o teste F. Ela é definida por dois parâmetros: os graus de liberdade \(d_1\) e \(d_2\), que estão associados às duas amostras ou variáveis que estão sendo comparadas.

4.5 Distribuição F

4.5.1 Exemplo 1: Estatística F no Teste F para comparar variâncias

O teste F é usado para comparar as variâncias de duas populações independentes. Suponha que você tenha duas amostras independentes, cada uma com \(n_1\) e \(n_2\) observações. A estatística de teste \(F\) é a razão entre as variâncias amostrais, ou seja, \(F = \frac{S_1^2}{S_2^2}\), onde \(S_1^2\) e \(S_2^2\) são as variâncias amostrais. Essa estatística segue uma distribuição F com \(d_1 = n_1 - 1\) e \(d_2 = n_2 - 1\) graus de liberdade.

  • Variável aleatória: \(F = \frac{S_1^2}{S_2^2}\),
  • Parâmetros: \(d_1 = n_1 - 1\), \(d_2 = n_2 - 1\) graus de liberdade,
  • \(F \sim F(d_1, d_2)\).

4.5.2 Exemplo 2: Estatística F na Análise de Variância (ANOVA)

Na ANOVA, queremos comparar as médias de mais de duas populações. A estatística \(F\) é usada para comparar a variância entre os grupos (tratamentos) com a variância dentro dos grupos (erro). A estatística F segue uma distribuição F com \(d_1 = k - 1\) e \(d_2 = N - k\) graus de liberdade, onde \(k\) é o número de grupos e \(N\) é o número total de observações.

  • Variável aleatória: \(F = \frac{\text{Variância entre grupos}}{\text{Variância dentro dos grupos}}\),
  • Parâmetros: \(d_1 = k - 1\), \(d_2 = N - k\),
  • \(F \sim F(k - 1, N - k)\).

4.5.3 Exemplo 3: Razão de variâncias em regressão linear

Na regressão linear, para testar a significância global do modelo, a estatística \(F\) é usada para verificar se o conjunto de variáveis independentes tem uma relação significativa com a variável dependente. Essa estatística \(F\) é a razão entre a variância explicada pelo modelo e a variância residual (não explicada). A estatística \(F\) segue uma distribuição F com \(d_1 = k\) e \(d_2 = n - k - 1\) graus de liberdade, onde \(k\) é o número de preditores e \(n\) é o número de observações.

  • Variável aleatória: \(F = \frac{\text{Variância explicada}}{\text{Variância residual}}\),
  • Parâmetros: \(d_1 = k\), \(d_2 = n - k - 1\),
  • \(F \sim F(k, n - k - 1)\).

4.5.4 Exemplo 4: Teste F na análise de variância de dois fatores (ANOVA de dois fatores)

Na ANOVA de dois fatores, temos dois fatores que influenciam a variável de interesse. Para testar se os dois fatores têm um efeito significativo sobre a variável dependente, são calculadas duas estatísticas \(F\), uma para cada fator. Cada uma dessas estatísticas \(F\) segue uma distribuição F com graus de liberdade diferentes para cada fator.

  • Variável aleatória: \(F_1\) e \(F_2\) (para os dois fatores),
  • Parâmetros: \(d_1 = (r-1)\) e \(d_2 = (s-1)\) para os fatores 1 e 2, \(r\) e \(s\) são os níveis dos fatores,
  • \(F \sim F(d_1, d_2)\).

4.5.5 Exemplo 5: Comparação entre modelos em regressão (Teste F parcial)

Em regressão múltipla, se você deseja comparar dois modelos de regressão (um modelo completo e um modelo reduzido), a estatística \(F\) pode ser usada para verificar se o modelo completo explica significativamente mais variabilidade do que o modelo reduzido. A estatística \(F\) é a razão entre a soma dos quadrados da regressão (diferença entre os dois modelos) e a soma dos quadrados residuais (erro), seguindo uma distribuição F com \(d_1\) e \(d_2\) graus de liberdade.

  • Variável aleatória: \(F\),
  • Parâmetros: \(d_1 = p_2 - p_1\) e \(d_2 = n - p_2\), onde \(p_2\) e \(p_1\) são os números de parâmetros nos modelos completo e reduzido, respectivamente,
  • \(F \sim F(d_1, d_2)\).

4.5.6 Exemplo 6: Comparação de modelos em séries temporais

No contexto de modelagem de séries temporais, especialmente na comparação de modelos autoregressivos, a estatística \(F\) pode ser utilizada para comparar dois modelos com diferentes números de parâmetros. A estatística segue uma distribuição F com graus de liberdade baseados no número de parâmetros nos dois modelos.

  • Variável aleatória: \(F\),
  • Parâmetros: \(d_1 = \text{Diferença no número de parâmetros entre os dois modelos}\), \(d_2 = \text{Número de observações menos o número de parâmetros no modelo maior}\),
  • \(F \sim F(d_1, d_2)\).