Home

Inferência Frequentista e Bayesiana

Inferência Frequentista Em uma abordagem frequencista à inferência, parâmetros desconhecidos são frequentemente, mas nem sempre tratados como se tivessem valores fixos, mas desconhecidos que não podem ser tratados como variados aleatórios em qualquer sentido e assim não há como associar probabilidades a eles. O modo frequentista de encarar a in...

Read more

Função Poder, Tipos de Erro e Tamanho do Teste

Função Poder Nossa capacidade de rejeitar $H_0$ depende do valor de $\theta \in \Omega$. Esta dependência é capturada pela função poder. Seja $\delta$ um procedimento de aceitação/rejeição como visto anteriormente. A função poder é definida como \(\pi(\theta \mid \delta):=\text{Pr}\left(\boldsymbol{X} \in S_1 \mid \theta\right)=\text{Pr}(T \in...

Read more

Erro Quadrático Médio e Estimador Condicionado

Erro Quadrático Médio (EQM) ou (MSE) \[\begin{gathered} \operatorname{EQM}(\hat{\theta})=E_\theta\left[(\hat{\theta}-\theta)^2\right] \\ \operatorname{EQM}(\hat{\theta})=\operatorname{Var}_\theta(\hat{\theta})+\operatorname{viés}(\hat{\theta})^2 \end{gathered}\] Estimador Condicionado \[\delta_0(T)=E_\theta[\delta(X) \mid T]\]

Read more

EMV

EMV ou MLE: $\theta_{E M V}$ O estimador de máxima verossimilhança (EMV) de uma amostra é aquele que maximiza a função de verossimilhança $L(\theta)=f_n(\bar{x} \mid \theta)$. \[\hat{\theta}=\text{argmax} \; L_x(\theta)\] Ps:. Maximizar $L(\theta)$ é o mesmo que maximizar $\log L(\theta)$ : “deriva e iguala a $0 “$. Ps2:. O EMV nem sempre é ú...

Read more

Distribuições Discretas e Contínuas

Distribuição Uniforme \[\begin{gathered} f\left(x \mid \theta_1, \theta_2\right)=\frac{1}{\theta_2-\theta_1}, \theta_2>\theta_1 \\ E[x]=\frac{a+b}{2} \\ \text{Var}[x]=\frac{(b-a)^2}{12} \\ f_n\left(x \mid \theta_1, \theta_2\right)=\frac{1}{\left(\theta_2-\theta_1\right)^n} \end{gathered}\] Distribuição Binomial k = número de sucessos \[\b...

Read more

Cramer-Ráo e Eficiência de um estimador

Cramer-Ráo e Eficiência O limite de Cramér-Rao afirma que o inverso da informação de Fisher é um limite inferior na variância de qualquer estimador não enviesado de $\theta$. $(\hat{\theta})$ Information Inequality \[\text{Var}_\theta(\delta) \geq \frac{\left[m^{\prime}(\theta)\right]^2}{n I(\theta)}\] \[m(\theta)=E_\theta[\hat{\theta}]\] D...

Read more

Convergência, Teorema de Bayes, TCL e LGN

Convergência Definição: Dizemos que uma sequência de variáveis aleatórias $Z_n$ converge para b, se para todo $\epsilon>0$, temos que: \[\lim \text{Pr}\left(\left|Z_n-b\right|<\epsilon\right)=1\] Teorema de Bayes e Probabilidade Condicional Probabilidade Condicional de B dado A: \[\begin{gathered} \text{Pr}(B \mid A)=\text{Pr}(A \cap B...

Read more

Admissibilidade e Dominância de um estimador

Definição Relação de dois estimadores: Um estimador $\delta$ é dito inadmissível se existe outro estimador $\delta_0$ tal que $R\left(\theta, \delta_0\right) \leq R(\theta, \delta)$ para todo $\theta \in \Omega$ e existe $\theta^{\prime} \in \Omega$ tal que $R\left(\theta^{\prime}, \delta_0\right) \leq R\left(\theta^{\prime}, \delta\right)$. ...

Read more