Definição de Intervalo de Confiança (IC)
De acordo com a interpretação frequentista, um intervalo de confiança para um determinado parâmetro da população mostra um intervalo de valores do verdadeiro parâmetro da população compatíveis com os dados da amostra, com um certo nível de confiança, seja o parãmetro a média de uma determinada distribuição, o risco relativo, a razão de chances, a variância, etc. O cálculo do intervalo de confiança é um dos principais resultados de uma análise estatística.
Seja $X={X_1, X_2, \ldots, X_n}$ uma amostra aleatória, cada variável aleatória com p.d.f. $f(x \mid \theta)$, e considere uma função real $g(\theta)$. Sejam $A(X)$ e $B(X)$ duas estatísticas de modo que valha
\[\text{Pr} \{A(X) < g(\theta) < B(X) \} \geq \gamma\]Dizemos que $I(X)=(A(X), B(X))$ é um intervalo de confiança de $100 \gamma \%$ para $g(\theta)$. Se a desigualdade for uma igualdade para todo $\theta \in \Omega$, dizemos que o intervalo é exato.
Intervalo de confiança para a média no caso Normal
Lembremos que \(U=\frac{\sqrt{n}\left(\bar{X}_n-\mu\right)}{\sqrt{\frac{\Delta^2}{n-1}}} \sim T(n-1) .\)
Para $c>0$, podemos computar $text{Pr}(-c < U < c)=\gamma$:
\[\begin{aligned} & \text{Pr}\left(-c<\frac{\sqrt{n}\left(\bar{X}_n-\mu\right)}{\sqrt{\frac{\Delta^2}{n-1}}}<c\right)=\gamma \\ & \text{Pr}\left(\bar{X}_n-\frac{c \hat{\sigma}^{\prime}}{\sqrt{n}}<\mu<\bar{X}_n+\frac{c \hat{\sigma}^{\prime}}{\sqrt{n}}\right)=\gamma\\ & T_{n-1}(c)-T_{n-1}(-c)=2 T_{n-1}(c)-1=\gamma \end{aligned}\]Concluímos que $c=F_T^{-1}\left(\frac{1+\gamma}{2} ; n-1\right)$.
No caso do intervalo de confiança para o parâmetro de média, temos
\[\text{Pr}b\{bA(X) < g(\mu) < B(X)\} \geq \gamma\]com $g(\mu)=\mu \mathrm{e}$
\[\begin{aligned} & A(X)=\bar{X}_n-\frac{c \hat{\sigma}^{\prime}}{\sqrt{n}}=\bar{X}_n-\frac{c \sqrt{\sum_{i=1}^n\left(X_i-\bar{X}_n\right)^2}}{\sqrt{n(n-1)}}, \\ & B(X)=\bar{X}_n+\frac{c \hat{\sigma}^{\prime}}{\sqrt{n}}=\bar{X}_n+\frac{c \sqrt{\sum_{i=1}^n\left(X_i-\bar{X}_n\right)^2}}{\sqrt{n(n-1)}} . \end{aligned}\]Mapeando uma distribuição normal genérica $\sim(\mu, \sigma)$ para uma distribuição normal padrão $\sim(0,1)$
Podemos mapear áreas sob o gráfico de uma distribuição normal genérica com média $\mu$ e desvio padrão $\sigma$ para áreas sob o gráfico da distribuição normal padrão por meio da expressão: \(Z=\frac{X-\mu}{\sigma}\)
Assim o intervalo $z_{\alpha / 2} \leq Z \leq z_{1-\alpha / 2}$ irá ser mapeado para o intervalo \(\begin{gathered} z_{\alpha / 2} \leq \frac{X-\mu}{\sigma} \leq z_{1-\alpha / 2} \\ \mu+z_{\alpha / 2} \sigma \leq X \leq \mu+z_{1-\alpha / 2} \sigma \Rightarrow \mu-z_{1-\alpha / 2} \sigma \leq X \leq \mu+z_{1-\alpha / 2} \sigma \end{gathered}\)
Portanto a probabilidade de extrairmos um elemento da população com distribuição $N\left(\mu, \sigma^2\right)$ e o valor desse elemento pertencer ao intervalo $\left[\mu-z_{1-\alpha / 2} \sigma, \mu+z_{1-\alpha / 2} \sigma\right]$ é $(1-\alpha) \%$.
Intervalos de Confiança em Testes de Hipótese
Suponha que dispomos de dados $X={X_1, X_2, \ldots, X_n}$ com f.d.p. comum $f(x \mid \theta)$, e estamos interessados em testar as hipóteses: \(H_0: g(\theta)=g_0\) \(H_1: g(\theta) \neq g_0\) de modo que existe um teste $\delta_{g_0}$ com nível $\alpha_0$ destas hipóteses. Para cada $X=\boldsymbol{x}$, defina \(w(\boldsymbol{x})=\{g_0: \delta_{g_0} \text { não rejeita } H_0 \text { dado que } X=\boldsymbol{x}\} .\) Fazendo o nível de confiança do intervalo $\gamma=1-\alpha_0$, temos \(\text{Pr}\left(g\left(\theta_0\right) \in w(X) \mid \theta=\theta_0\right) \geq \gamma, \forall \theta_0 \in \Omega\)
Interpretação do Gráfico
Suponha que $z_p$ significa o valor da variável aleatória $\mathbf{Z}$ que segue a distribuição normal padrão, $N(0,1)$, para o qual $P\left(z \leq z_p \right)=p$, ou seja, a área sob a curva normal padrão à esquerda de $z_p$ é igual a $p$. Assim, para $p=0,01(1 \%), z_{0,01}=-2,33$.

Para uma população com uma distribuição normal padrão, dado um valor $\alpha(0 \leq \alpha \leq 1)$, podemos obter ० intervalo $\left(z_{\alpha / 2}, z_{1-\alpha / 2}\right)$ que conterá com probabilidade $(1-\alpha)$ o valor de um elemento extraído aleatoriamente dessa população. Para a distribuição normal padrão, $z_{\alpha / 2}=-z_{1-\alpha / 2}$.
Interpretação do Intervalo de Confiança
O intervalo de confiança $(100-\alpha) \%$ para um parâmetro consiste em um intervalo aleatório que possui a propriedade de conter o valor real desse parâmetro com uma probabilidade de $(100-\alpha) \%$. O termo aleatório nessa interpretação indica que, antes de realizarmos a amostragem e calcularmos o intervalo de confiança de acordo com o procedimento apropriado, haverá uma probabilidade de $(100-\alpha) \%$ de o intervalo vir a conter o real valor do parâmetro de interesse.
Observações
-
Um intervalo de confiança não é uma afirmação sobre o(s) parâmetro(s)! A afirmação probabilística da forma $\text{Pr} { A(X) < g(\theta) < B(X) } = \gamma$ diz respeito à distribuição conjunta das variáveis aleatórias $A(X)$ e $B(X)$ para um valor fixo de $\theta$ - e, portanto, de $g(\theta)$.
-
Intervalos de confiança são procedimentos
Como de costume na teoria ortodoxa (frequentista), o foco da construção de um intervalo confiança está em dar garantias probabilísticas com relação à distribuição dos dados. Dizer que $\text{Pr}{A(X) < g(\theta) < B(X)}=\gamma$ é dizer que, se eu gerasse $M$ grande amostras aleatórias $X^{(1)}, X^{(2)}, \ldots, X^{(M)}$ de tamanho $n$ e construisse $M$ intervalos $I\left(X^{(1)}\right), I\left(X^{(2)}\right), \ldots, I\left(X^{(M)}\right)$, eu esperaria encontrar:
\[\frac{1}{M} \sum_{i=1}^M \mathbb{I}\left(g(\theta) \in I\left(X^{(i)}\right)\right) \approx \gamma\]Intervalos Unilaterais
Seja $X={X_1, X_2, \ldots, X_n}$ uma amostra aleatória, cada variável aleatória com p.d.f. $f(x \mid \theta)$, e considere uma função real $g(\theta)$. Seja $A(X)$ uma estatística que, para todo $\theta \in \Omega$, valha
\[\text{Pr } \{ A(X) < g(\theta) \} \geq \gamma\]dizemos que o intervalo aleatório $(A(X), \infty)$ é chamado um intervalo de confiança unilateral de $100 \gamma \%$ para $g(\theta)$, ou, ainda, um intervalo de confiança inferior de $100 \gamma \%$ para $g(\theta)$. O intervalo $(-\infty, B(X))$, com
\[\text{Pr }\{g(\theta) < B(X)\} \geq \gamma\]é definido de forma análoga, e é chamado de intervalo de confiança superior de $100 \gamma \%$ para $g(\theta)$. Se a desigualdade é uma igualdade para todo $\theta \in \Omega$, os intervalos são chamados exatos.
Quantidade Pivotal
Seja $X={X_1, X_2, \ldots, X_n}$ uma amostra aleatória com p.d.f. $f(x \mid \theta)$. Seja $V(X, \theta)$ uma variável aleatória cuja distribuição é a mesma para todo $\theta \in \Omega$. Dizemos que $V(X, \theta)$ é uma quantidade pivotal.
Podemos utilizar quantidades pivotais para construir intervalos de confiança. Considere uma função $r(v, \boldsymbol{x})$ tal que
\[Pr(V(X, \theta), X)=g(\theta)\]Construindo IC a partir de quantidade pivotal
Seja $X={X_1, X_2, \ldots, X_n}$ uma amostra aleatória com p.d.f. $f(x \mid \theta)$. Suponha que existe uma quantidade pivotal $V$, com c.d.f. contínua $G$. Assuma que existe $r(v, x)$, estritamente crescente em $v$ para todo $x$. Finalmente, tome $0 < \gamma < 1$ e $\gamma_1 < \gamma_2$ de modo que $\gamma_2-\gamma_1=\gamma$. Então as estatísticas
\[\begin{aligned} & A(X)=r\left(G^{-1}\left(\gamma_1\right), X\right), \\ & B(X)=r\left(G^{-1}\left(\gamma_2\right), X\right) \end{aligned}\]são os limites de um intervalo de confiança de $100 \gamma \%$ para $g(\theta)$.