Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Econometrics Slide 4 P

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 13

Inferencia

Mauricio Olivares

ITAM

19 de junio de 2015
I Recuerda de nuestra clase anterior que m(x ) = α + βx .
I Esta es una relación poblacional, no hay muestra hasta ahora.
I Si conociéramos α y β podrı́amos conocer la CEF.
I En este contexto, α y β son unas constantes desconocidas a
las que llamaremos parámetros.
I En esta clase vamos a establecer una serie de herramientas
para conocer esta relación poblacional a partir de la muestra.
I Como tales, α y β son desconocidas pero podemos extraer
inferencia (estimación y pruebas de hipótesis) sobre ellos.
I Inferencia (paramétrica) consiste en conocer establecer
propiedades a partir de las cuales podemos estudiar la
población a partir de la muestra en una forma inductiva.
I En este curso vamos a trabajar con muestras aleatorias.
I X1 , ·, Xn constituye una muestra aleatoria de tamaño n y
provenientes de alguna distribución F si se cumple que:
I Xi y Xj son independientes ∀ i 6= j.
I Todas las Xi provienen de la misma distribución F .
Estadı́sticos

I Un estadı́stico es simplemente una función de la muestra.


I Por ejemplo la media muestral:
Pn
i=1 Xi
X=
n
es un estadı́stico dado que es una función de la muestra.
I Como nuestro interés es conocer sobre la población a partir de
la muestra en una forma inductiva, los estimadores jugarán un
rol central.
I Nota que como son funciones de la muestra, que consta de
variables aleatorias, entonces los estadı́sticos también son
variables aleatorias.
Estadı́sticos

I Surgen inmediatamente dos preguntas


1. ¿Cómo obtenemos estimadores?
2. ¿Cómo sabemos que estos estimadores son informativos sobre
la población?
I La primera pregunta está relacionada con los métodos de
estimación.
I Principio de analogı́a.
I Máxima Verosimilitud.
I La segunda, sobre las propiedades deseables de los
estimadores.
I Insesgadez, Eficiencia, Consistencia, etc.
Principio de Analogı́a

I El Principio de Analogı́a consiste en proponer estimadores que


emulen el objeto de interés (parámetro) en la muestra.
I Es decir, proponer como estimadores en análogo muestral.
I Por ejemplo, si estamos interesados en la media poblacional
E (x ), proponemos como estimador la media muestral
Pn
i=1 Xi
X=
n
Principio de analogı́a: notación
I En general, vamos a denotar los parámetros con letras griegas.
I Por ejemplo, µy = E (y )
I Dado que el principio de analogı́a busca mimetizar el objeto
de la población en la muestra, vamos a preferir la siguiente
notación:
n
1 X
En (X ) ≡ ( Xi )
n i=1
I Entonces, si queremos proponer un estimador para la varianza
poblacional, por principio de analogı́a, usamos su contraparte
muestral
n
1X
Vn (X ) = (Xi − µx )2
n i=1
I De manera muy general
n
1X
En (g(x )) = g(Xi )
n i=1
I Siguiendo la misma lógica, si queremos estimar α y β que
caracterizan a la CEF lineal, propondrı́amos
I

Cn (x , y )
βn =
Vn (x )
αn = En (y ) − βn En (x )

I donde Cn (x , y ) = En (xi yi ) − En (xi ) En (yi ).


I Como te habrás dado cuenta, a su vez son funciones de la
media muestral.
La media muestral

I La media muestral (esperanza empı́rica) satisface muchas


propiedades que, en nuestro marco de muestra aleatoria,
podremos aplicar extensivamente.
I Como ya vimos, es un estadı́stico pues es una función de la
muestra.
I Por lo tanto, es también una variable aleatoria.
I Ya vimos que también surge del principio de analogı́a.
I Tenemos qué estudiar por qué es un estimador sensato.
Propiedades de los estimadores

I Decimos que un estimador θn es insesgado para θ si


E(θn ) = θ.
I De no ser ası́, definimos el sesgo como B(θn ) = E(θn ) − θ.
I Podemos tener más de un estimador insesgado para θ, por ello
necesitamos un segundo criterio para discernir entre ambos.
I Un criterio sencillo es escoger el que tenga menor varianza.
I Dados dos estimadores insesgazos, θn1 y θn2 , decimos que θn1 es
más eficiente si
V(θn1 ) < V(θn2 )
I A veces este criterio de eficiencia no es la panacea dado que
podemos tener situaciones como

|B(θn1 ) |> |B(θn2 ) | y V(θn1 ) < V(θn2 )

I Dichas situaciones pueden ser atacadas si combinamos ambos


criterios en uno nuevo y definimos el error cuadrático medio
de un estimador como

ECM(θn ) = E(θn − θ)2


= V(θn ) + [B(θn )]2

I Entonces escogemos el estimador que tenga el menor error


cuadrático medio.
La media muestral

I La media muestral, en nuestro marco de muestra aleatoria,


satisface dos propiedades exactas (para cualquier tamaño de
muestra) y dos propiedades asintóticas.
I Propiedades exactas:
1. E(En (x )) = µ (Insesgadez).
2. V(En (x )) = n1 V(x ).
I Propiedades asintóticas
p
1. En (x ) → E (x ) (Consistencia).
2. Por el Teorema Central del Lı́mite para muestras aleatorias, la
media muestral estandarizada converge en distribución a la
normal estándar.

 
En (x ) − µx d
n → N(0, 1)
V(x )
¿Por qué nos interesa tanto?

I Se escapa un poco al objetivo de este curso (introductorio),


pero los anteriores resultados a la par de:
I Teoremas de Slutsky
I Teorema de representación continua (continuous mapping
theorem)
I Método Delta
I Nos dejan en una posición muy ventajosa para estudiar las
propiedades aproximadas de una vasta familia de estimadores,
dado que en su mayorı́a son funciones de las medias
muestrales.

También podría gustarte