Derivadas de Funções
Definição
Sejam $f: X \rightarrow \mathbb{R}$ e $a \in X \cap X^{\prime}$. A derivada da função $f$ no ponto $a$ é o limite
\[f^{\prime}(a)=\lim _{x \rightarrow a} \frac{f(x)-f(a)}{x-a}=\lim _{h \rightarrow 0} \frac{f(a+h)-f(a)}{h}\]
Bem entendido, o limite acima pode existir ou não. Se existir, diz-se que $f$ é derivável no ponto $a$.
Qu...
Variância e Valor Esperado
Definições
Dado um conjunto de dados, a variância é uma medida de dispersão que mostra o quão distante cada valor desse conjunto está do valor central (médio). Na teoria da probabilidade e na estatística, a variância de uma variável aleatória ou processo estocástico é uma medida da sua dispersão estatística, indicando “o quão longe” em geral os...
Teste não-viesado e Teste T
Teste não-viesado
Suponha que desejamos testar a hipótese
\[\begin{aligned}
& H_0: \theta \in \Omega_0, \\
& H_1: \theta \in \Omega_1
\end{aligned}\]
através do teste $\delta$. Dizemos que $\delta$ é não-viesado se (e somente se) para $\theta \in \Omega_0$ e $\theta^{\prime} \in \Omega_1$, vale
\[\pi(\theta \mid \delta) \leq \pi\lef...
Teste de Hipóteses
Definição
O teste de hipóteses uma metodologia estatística que nos auxilia a tomar decisões sobre uma ou mais populações baseado na informação obtida da amostra.
Nos permite verificar se os dados amostrais trazem evidência que apoiem ou não uma hipótese estatística formulada.
Ao tentarmos tomar decisões, é conveniente a formulação de suposiçõ...
Teste da razão da verossimilhança e Teorema de Wilks
Teste da razão da verossimilhança
Considere testar
\[\begin{aligned}
& H_0: \theta \in \Omega_0, \\
& H_1: \theta \in \Omega_1
\end{aligned}\]
Em certas situações, podemos utilizar a função de verossimilhança para quantificar a evidência em favor de $H_0$.
Definição
A estatística
\[\Lambda(x)=\frac{\sup _{\theta \in \Omega_0} f_n(...
Teorema de Rao-Blackwell
Definição
O teorema Rao-Blackwell diz que todo estimador condicionado em uma estatística suficiente é admissível.
Seja $\delta(X)$ um estimador, T uma estatistica suficiente para $\theta$ e seja $\delta_0(T)$ um estimador condicionado, então:
\[R\left(\theta, \delta_0\right) \leq R(\theta, \delta)\]
Melhoramento de Blackwell ou Rao-Blackwelli...
Teorema da Fatorização
Definição
Se T é suficiente para $\theta$ podemos escrever a verossimilhança como o produto entre uma função que não depende de $\theta$ e uma função que só depende de $\mathrm{X}$ através de $\mathrm{T}$.
\[f_n(x \mid \theta)=u(x) \cdot v(T(x, \theta))\]
Em outras palavras:
u depende apenas de $x$ (e não de $\theta$ ).
$\mathrm{v}$ dep...
Suficiência de um estimador
Suficiência
Dizemos que uma estatística $T(\theta)$ é suficiente para calcular a verossimilhança. Então também é suficiente para calcular qualquer inferência que dependa apenas dos dados da função de verossimilhança, como EMV e qualquer coisa baseada em distribuição a posteriori. Em outras palavras, a distribuição condicional da amostra dado o ...
42 post articles, 6 pages.