Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% encontró este documento útil (0 votos)
18 vistas29 páginas

Repaso de Estadistica

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 29

Econometría I – EAE 250A

Pontificia Universidad Católica de Chile


Instituto de Economía

Juan Ignacio Urquiza – Primer Semestre 2017


Repaso de Estadística
 Propiedades de los Estimadores:
 Insesgamiento, eficiencia, consistencia

 Teorema Central del Límite

 Inferencia:
 Test de hipótesis
 Intervalo de confianza

Apéndice C - Wooldridge
Estimadores como VA
 Un estimador t es una variable aleatoria que es
función de los datos muestrales.
 Para evaluar a un estimador debemos analizar
distintas propiedades de su distribución de
probabilidades.
 Comenzaremos con el estudio de propiedades de
muestra pequeña o finita, y luego analizaremos
propiedades asintóticas que tienen que ver con el
comportamiento de los estimadores a medida que
aumenta el tamaño de la muestra.
Propiedades de Estimadores
 Muestras Repetidas de Igual Tamaño
 Insesgamiento:
 Sea t(x) estimador de un parámetro θ, y sea f(t,θ) la
función de densidad de probabilidad de t.
 Entonces, t es insesgado si E(t)= θ.
 En palabras, el valor esperado del estimador coincide
con el del parámetro a estimar.

 Importante: el insesgamiento es una propiedad para


todo tamaño de muestra; no sólo para las grandes.
Media Muestral
 Sea Y1, Y2, …, Yn una muestra aleatoria de una
población con media µY.
 Entonces,

 Valor Esperado:

Insesgamiento
Propiedades de Estimadores
 Muestras Repetidas de Igual Tamaño

 Eficiencia Relativa:

 Sean t1 y t2 estimadores insesgados.


 Entonces, t1 es más eficiente que t2 si
Var(t1)<Var(t2).
 En palabras, el estimador t1 es más eficiente si su
varianza es más pequeña.

ECM = Var(t) + sesgo2


Propiedades de Estimadores
 Muestras Repetidas de Igual Tamaño

 Eficiencia Relativa:

 Sean t1 y t2 estimadores sesgados.


 Entonces,t1 es más eficiente que t2 si
ECM1<ECM2.
 ECM = E[(t – θ)2]: Error Cuadrático Medio.

ECM = Var(t) + sesgo2


Muestras Grandes
 Se denomina teoría asintótica al estudio de los
estimadores para muestras grandes (n→∞).

 Se revisarán dos temas:


 Convergencia en probabilidad.

 Consistencia

 Convergencia en distribución.
 Teorema Central del Límite
Convergencia en Probabilidad
 Definición:
 Una secuencia de variables aleatorias {xn} converge
en probabilidad a una constante c si

para cualquier
 Alternativamente,

 Intuición: a medida que aumenta el tamaño de la


muestra, la distribución de xn se concentra cada vez
más alrededor de la constante c.
Convergencia en Probabilidad
 En general, si xn converge en probabilidad a
una constante c, entonces escribimos:
plim xn = c

 Propiedades del operador plim:


 plim (x + y) = plim x + plim y

 plim (x * y) = plim x * plim y

 plim (x / y) = plim x / plim y , si plim y ≠ 0


Propiedades de Estimadores
 Consistencia:
 El estimador t(x) es consistente para θ si:

 Es decir, t es consistente si converge en


probabilidad al parámetro θ.

 Nota: si E(tn) = θ y V(tn) → 0 cuando n →∞, entonces


tn es consistente.
Media Muestral
 Varianza:
Media Muestral
 Varianza:

Consistencia
Ejemplo: Y~Bernoulli (p = 0.78)
Convergencia en Distribución
 Teorema Central del Límite
 Definición: Sea Y1, Y2, …, Yn una muestra aleatoria
de una población con media μ y varianza σ2.
Entonces,

donde d significa que la expresión converge en


distribución a una Normal cuando n tiende a infinito.
 Alternativamente,
Ejemplo: Y~Bernoulli (p = 0.78)
Test de Hipótesis
 Esta técnica de inferencia estadística nos permite
evaluar si la información contenida en los datos avala o
no una conjetura sobre la población que se está
estudiando.
 Nociones básicas:
 Hipótesis nula e hipótesis alternativa
 Estadístico de contraste
 Nivel de significancia
 Valor crítico
 Región de aceptación/rechazo
Planteamiento de Hipótesis
 El punto de partida consiste en establecer la
hipótesis a evaluar; es decir, la hipótesis nula (H0),
cuya validez queremos contrastar.
 Frente a esta hipótesis, se plantea una hipótesis
alternativa (H1) que se cumple cuando la nula es
falsa.
 Por ejemplo:
 H0: E(Y) = µY,0
 H1: E(Y) ≠ µY,0 (test bilateral o “de dos colas”)
 H1 : E(Y) > µY,0 o H1 : E(Y) < µY,0
(test unilateral o “de una cola”)
Estadístico de Contraste
 Una vez definidas H0 y H1, hay que determinar un
estadístico de contraste que mida la discrepancia entre
la información muestral y la hipótesis nula.
 Idea: si la discrepancia es grande, el valor del
estadístico estará dentro de valores poco probables
cuando H0 sea verdadera, lo que indica evidencia
contraria a H0, y viceversa.
 El estadístico de contraste es una variable aleatoria
puesto que depende de los datos muestrales.
 Deberá tener una distribución conocida (exacta o
aproximada) bajo la hipótesis nula.
Error Tipo I / Error Tipo II
 Cuando realizamos un contraste, podemos cometer dos
tipos de errores:
 Podemos rechazar H0 cuando es cierta (error tipo I)
 Podemos no rechazar H0 cuando es falsa (error tipo II)
 En la práctica, no es posible determinar si hemos
cometido o no un error.
 Sin embargo, es posible especificar la probabilidad α de
cometer un error del tipo I.

α = Pr (error tipo I) = Pr (rechazar H0 | H0 verdadero)

Nivel de Significancia o Tamaño


Valor Crítico / Región de Rechazo

 Entonces, se fija un valor para α tan pequeño como uno


desee – en general: α = 0,1; 0,05; 0,01 .
 Interpretación:
α = 0,05 implica que el investigador estaría
dispuesto a rechazar H0 incorrectamente un 5% de
las veces – tolerancia.
 Una vez establecido el nivel de significancia, es posible
hallar un valor crítico contra el cual contrastar el valor
del estadístico.
 Los valores del estadístico T que resulten en el rechazo
de H0 conforman la región de rechazo.
Región de Aceptación/Rechazo
 Test Bilateral:
Regla de Decisión:
|t| > |c|

Región de Aceptación

Región de Rechazo Región de Rechazo


Región de Aceptación/Rechazo
 Test Unilateral:
Regla de Decisión:
t >c

Región de Aceptación

Región de Rechazo
Región de Aceptación/Rechazo
 Test Unilateral:
Regla de Decisión:
t <-c
Test de Hipótesis
 Y ~ N(µY, σY2) – σY2 conocido. Caso 1

 Entonces, bajo H0:

 Por lo tanto,
Test de Hipótesis
 Y ~ N(µY, σY2) – σY2 desconocido. Caso 2

 Hay que estimarlo:

 Por lo tanto,
Test de Hipótesis
 ¿Si desconocemos tanto la distribución de
Y como su varianza σY2?
 Teorema Central del Límite! Caso 3

 Por lo tanto,
P-value
 Probabilidad de obtener un estadístico tanto o más
adverso para la hipótesis nula como el computado,
asumiendo que H0 es verdadera.
 P-value = Pr(T > t | H0)
 P-value = Pr(T < t | H0)
 P-value = Pr( |T| > |t| | H0) = 2*Pr(T > |t| | H0)
 Cuanto menor sea el p-value, menos probable es que la
distribución obtenida para el estadístico bajo la nula sea
correcta y, por lo tanto, es menos probable que estemos
bajo la nula.
 Es decir, un p-value chico es evidencia en contra de H0.
Intervalo de Confianza
 Debido al error de muestreo, es imposible conocer el
valor exacto de la media poblacional a partir de la
información contenida en los datos muestrales.
 Sin embargo, es posible construir un set de valores que
contenga al verdadero valor poblacional para un nivel
de probabilidad dado.
 Intervalo de Confianza (test bilateral al 95%):
Caso 1

Caso 2

Caso 3

También podría gustarte