Sumário

1 Objetivo:

No contexto da Teoria da Estimação, este material explora exemplos práticos dos métodos de estimadores: Método dos Momentos, Método da Máxima Verossimilhança e o Estimador de Mínimos Quadrados.

2 Método dos Momentos para Distribuição Normal

Exemplo 1:
Consideremos uma amostra \(X_1, ..., X_n\) de variáveis iid \(n(\theta, \sigma^2)\). Para essa distribuição, temos \(\theta_1 = \theta\) e \(\theta_2 = \sigma^2\). Assim, nossos momentos amostrais são dados por \(m_1 = \bar{X}\) e \(m_2 = \frac{1}{n} \sum X_i^2\). Igualando-os aos momentos populacionais, temos \(\mu_1 = \theta\) e \(\mu_2 = \theta^2 + \sigma^2\), levando às equações \(\bar{X} = \theta\) e \(\frac{1}{n} \sum X_i^2 = \theta^2 + \sigma^2\).

Ao resolver para \(\theta\) e \(\sigma^2\), obtemos os estimadores do Método dos Momentos: \[ \hat{\theta} = \bar{X} \quad \text{e} \quad \hat{\sigma}^2 = \frac{1}{n} \sum (X_i - \bar{X})^2. \]

Este método confirma a intuição inicial e se mostra valioso quando nenhum outro estimador é evidente. Abaixo, um código R que simula uma amostra com média \(\theta = 5\) e variância \(\sigma^2 = 2\), calculando os estimadores:

set.seed(123) # Reprodutibilidade
n <- 100
theta <- 5
sigma_squared <- 2
sample_data <- rnorm(n, mean = theta, sd = sqrt(sigma_squared))

theta_hat <- mean(sample_data)
sigma_squared_hat <- mean((sample_data - theta_hat)^2)

cat("Estimador de theta (θ̂):", theta_hat, "\n")
cat("Estimador de sigma^2 (σ̂^2):", sigma_squared_hat, "\n")

Resultados esperados: - \(\hat{\theta} \approx 4.96\) - \(\hat{\sigma}^2 \approx 1.83\)

3 Método dos Momentos para Distribuição Binomial

Exemplo 2:
Para uma amostra \(X_1, ..., X_n\) iid de uma distribuição binomial \((k, p)\), em que tanto \(k\) quanto \(p\) são desconhecidos, deseja-se estimar esses parâmetros. Igualando os momentos amostrais aos momentos populacionais, obtemos o sistema: \[ \bar{X} = kp \quad \text{e} \quad \frac{1}{n} \sum X_i^2 = kp(1 - p) + k^2 p^2. \]

Após simplificação, os estimadores são dados por: \[ \hat{k} = \frac{\bar{X}^2}{\bar{X} - \frac{1}{n} \sum (X_i - \bar{X})^2}, \quad \hat{p} = \frac{\bar{X}}{\hat{k}}. \]

Abaixo está o código para simular essa distribuição e aplicar o método dos momentos:

set.seed(123) # Reprodutibilidade
n <- 100
k <- 10
p <- 0.3
sample_data <- rbinom(n, size = k, prob = p)

X_bar <- mean(sample_data)
S_squared <- mean((sample_data - X_bar)^2)

k_hat <- X_bar^2 / (X_bar - S_squared)
p_hat <- X_bar / k_hat

cat("Estimador de k (k̂):", k_hat, "\n")
cat("Estimador de p (p̂):", p_hat, "\n")

Resultado: \(\hat{p} \approx 0.305\)

4 Método da Máxima Verossimilhança

Exemplo 3: Estimador de Máxima Verossimilhança para \(\mu\) de uma Normal
Para uma amostra \(X_1, X_2, ..., X_n\) de uma normal com média \(\mu\) e variância 1, podemos determinar o estimador de máxima verossimilhança de \(\mu\) pela função de log-verossimilhança: \[ l(\mu; x) = \frac{n}{2} \log \left(\frac{1}{2\pi}\right) - \frac{\sum (x_i - \mu)^2}{2}. \]

Derivando e resolvendo para zero, obtemos: \[ \hat{\mu} = \bar{X}. \]

Exemplo 4: Estimador de Máxima Verossimilhança para \(p\) de uma Bernoulli
Para uma amostra de uma distribuição Bernoulli, a função de verossimilhança para o parâmetro \(p\) é: \[ L(p; x) = \prod p^{x_i} (1 - p)^{1 - x_i}. \]

A log-verossimilhança é dada por: \[ l(p; x) = \sum x_i \log(p) + (n - \sum x_i) \log(1 - p), \] cujas derivadas indicam que \(\hat{p} = \bar{X}\).

5 Estimador de Mínimos Quadrados

Para um modelo linear simples \(Y = \beta_0 + \beta_1 X + \epsilon\), os estimadores \(\hat{\beta_0}\) e \(\hat{\beta_1}\) minimizam a soma dos quadrados dos erros. Abaixo estão as expressões para os estimadores: \[ \hat{\beta_1} = \frac{\sum (Y_i X_i) - \frac{1}{n} \sum Y_i \sum X_i}{\sum X_i^2 - \frac{1}{n} \left(\sum X_i\right)^2}, \] \[ \hat{\beta_0} = \bar{Y} - \hat{\beta_1} \bar{X}. \]


6 Conclusão

A aplicação dos métodos de estimativa explorados - Método dos Momentos, Máxima Verossimilhança e Estimador de Mínimos Quadrados - é fundamental para a compreensão e desenvolvimento de estimadores eficientes em estatística. Cada método oferece uma abordagem distinta para obter estimativas pontuais dos parâmetros de diferentes distribuições, destacando-se pela adequação a situações específicas e pela versatilidade. O Método dos Momentos, por exemplo, é útil quando outros estimadores são menos evidentes, sendo intuitivo e frequentemente aplicável em distribuições comuns, como as normais e binomiais. O Método da Máxima Verossimilhança, por sua vez, se destaca por ser o preferido na maioria dos casos em que se busca um estimador que maximize a probabilidade dos dados observados, sendo amplamente utilizado em inferências complexas. Já o Estimador de Mínimos Quadrados é particularmente valioso em modelos de regressão, pois minimiza o erro quadrático e é a base para análises lineares em diversas áreas.

A compreensão desses métodos e suas implementações práticas por meio de códigos simulados permite não apenas a estimação de parâmetros de forma precisa, mas também o desenvolvimento de um olhar crítico sobre o ajuste e a validade dos modelos em aplicações reais. A combinação dessas ferramentas oferece ao estatístico uma caixa de ferramentas poderosa, permitindo que ele escolha o método mais adequado conforme as características dos dados e os objetivos de cada análise. Dessa forma, a utilização desses métodos fortalece a análise estatística, permitindo interpretações robustas e fundamentadas, essenciais para a tomada de decisões baseada em dados.