Inferência Frequentista e Bayesiana
Inferência Frequentista
Em uma abordagem frequencista à inferência, parâmetros desconhecidos são frequentemente, mas nem sempre tratados como se tivessem valores fixos, mas desconhecidos que não podem ser tratados como variados aleatórios em qualquer sentido e assim não há como associar probabilidades a eles. O modo frequentista de encarar a in...
Função Poder, Tipos de Erro e Tamanho do Teste
Função Poder
Nossa capacidade de rejeitar $H_0$ depende do valor de $\theta \in \Omega$. Esta dependência é capturada pela função poder.
Seja $\delta$ um procedimento de aceitação/rejeição como visto anteriormente. A função poder é definida como
\(\pi(\theta \mid \delta):=\text{Pr}\left(\boldsymbol{X} \in S_1 \mid \theta\right)=\text{Pr}(T \in...
Erro Quadrático Médio e Estimador Condicionado
Erro Quadrático Médio (EQM) ou (MSE)
\[\begin{gathered}
\operatorname{EQM}(\hat{\theta})=E_\theta\left[(\hat{\theta}-\theta)^2\right] \\
\operatorname{EQM}(\hat{\theta})=\operatorname{Var}_\theta(\hat{\theta})+\operatorname{viés}(\hat{\theta})^2
\end{gathered}\]
Estimador Condicionado
\[\delta_0(T)=E_\theta[\delta(X) \mid T]\]
EMV
EMV ou MLE: $\theta_{E M V}$
O estimador de máxima verossimilhança (EMV) de uma amostra é aquele que maximiza a função de verossimilhança $L(\theta)=f_n(\bar{x} \mid \theta)$.
\[\hat{\theta}=\text{argmax} \; L_x(\theta)\]
Ps:. Maximizar $L(\theta)$ é o mesmo que maximizar $\log L(\theta)$ : “deriva e iguala a $0 “$.
Ps2:. O EMV nem sempre é ú...
Distribuições Discretas e Contínuas
Distribuição Uniforme
\[\begin{gathered}
f\left(x \mid \theta_1, \theta_2\right)=\frac{1}{\theta_2-\theta_1}, \theta_2>\theta_1 \\
E[x]=\frac{a+b}{2} \\
\text{Var}[x]=\frac{(b-a)^2}{12} \\
f_n\left(x \mid \theta_1, \theta_2\right)=\frac{1}{\left(\theta_2-\theta_1\right)^n}
\end{gathered}\]
Distribuição Binomial
k = número de sucessos
\[\b...
Cramer-Ráo e Eficiência de um estimador
Cramer-Ráo e Eficiência
O limite de Cramér-Rao afirma que o inverso da informação de Fisher é um limite inferior na variância de qualquer estimador não enviesado de $\theta$. $(\hat{\theta})$
Information Inequality
\[\text{Var}_\theta(\delta) \geq \frac{\left[m^{\prime}(\theta)\right]^2}{n I(\theta)}\]
\[m(\theta)=E_\theta[\hat{\theta}]\]
D...
Convergência, Teorema de Bayes, TCL e LGN
Convergência
Definição: Dizemos que uma sequência de variáveis aleatórias $Z_n$ converge para b, se para todo $\epsilon>0$, temos que:
\[\lim \text{Pr}\left(\left|Z_n-b\right|<\epsilon\right)=1\]
Teorema de Bayes e Probabilidade Condicional
Probabilidade Condicional de B dado A:
\[\begin{gathered}
\text{Pr}(B \mid A)=\text{Pr}(A \cap B...
Admissibilidade e Dominância de um estimador
Definição
Relação de dois estimadores: Um estimador $\delta$ é dito inadmissível se existe outro estimador $\delta_0$ tal que $R\left(\theta, \delta_0\right) \leq R(\theta, \delta)$ para todo $\theta \in \Omega$ e existe $\theta^{\prime} \in \Omega$ tal que $R\left(\theta^{\prime}, \delta_0\right) \leq R\left(\theta^{\prime}, \delta\right)$.
...
42 post articles, 6 pages.