Repaso de Estadistica
Repaso de Estadistica
Repaso de Estadistica
Inferencia:
Test de hipótesis
Intervalo de confianza
Apéndice C - Wooldridge
Estimadores como VA
Un estimador t es una variable aleatoria que es
función de los datos muestrales.
Para evaluar a un estimador debemos analizar
distintas propiedades de su distribución de
probabilidades.
Comenzaremos con el estudio de propiedades de
muestra pequeña o finita, y luego analizaremos
propiedades asintóticas que tienen que ver con el
comportamiento de los estimadores a medida que
aumenta el tamaño de la muestra.
Propiedades de Estimadores
Muestras Repetidas de Igual Tamaño
Insesgamiento:
Sea t(x) estimador de un parámetro θ, y sea f(t,θ) la
función de densidad de probabilidad de t.
Entonces, t es insesgado si E(t)= θ.
En palabras, el valor esperado del estimador coincide
con el del parámetro a estimar.
Valor Esperado:
Insesgamiento
Propiedades de Estimadores
Muestras Repetidas de Igual Tamaño
Eficiencia Relativa:
Eficiencia Relativa:
Consistencia
Convergencia en distribución.
Teorema Central del Límite
Convergencia en Probabilidad
Definición:
Una secuencia de variables aleatorias {xn} converge
en probabilidad a una constante c si
para cualquier
Alternativamente,
Consistencia
Ejemplo: Y~Bernoulli (p = 0.78)
Convergencia en Distribución
Teorema Central del Límite
Definición: Sea Y1, Y2, …, Yn una muestra aleatoria
de una población con media μ y varianza σ2.
Entonces,
Región de Aceptación
Región de Aceptación
Región de Rechazo
Región de Aceptación/Rechazo
Test Unilateral:
Regla de Decisión:
t <-c
Test de Hipótesis
Y ~ N(µY, σY2) – σY2 conocido. Caso 1
Por lo tanto,
Test de Hipótesis
Y ~ N(µY, σY2) – σY2 desconocido. Caso 2
Por lo tanto,
Test de Hipótesis
¿Si desconocemos tanto la distribución de
Y como su varianza σY2?
Teorema Central del Límite! Caso 3
Por lo tanto,
P-value
Probabilidad de obtener un estadístico tanto o más
adverso para la hipótesis nula como el computado,
asumiendo que H0 es verdadera.
P-value = Pr(T > t | H0)
P-value = Pr(T < t | H0)
P-value = Pr( |T| > |t| | H0) = 2*Pr(T > |t| | H0)
Cuanto menor sea el p-value, menos probable es que la
distribución obtenida para el estadístico bajo la nula sea
correcta y, por lo tanto, es menos probable que estemos
bajo la nula.
Es decir, un p-value chico es evidencia en contra de H0.
Intervalo de Confianza
Debido al error de muestreo, es imposible conocer el
valor exacto de la media poblacional a partir de la
información contenida en los datos muestrales.
Sin embargo, es posible construir un set de valores que
contenga al verdadero valor poblacional para un nivel
de probabilidad dado.
Intervalo de Confianza (test bilateral al 95%):
Caso 1
Caso 2
Caso 3