Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Trabajo de Minimo Cuadrado Ordinario

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 8

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DEL PODER POPULAR PARA LA DEFENSA

UNIVERSIDAD NACIONAL EXPERIMENTAL POLITÉCNICA DE LA


FUERNA ARMADA NACIONAL

NÚCLEO LARA

MÍNIMO CUADRADO ORDINARIO

ESTUDIANTE

ELIANGEL COLMENAREZ

C.I: 26846871

ECONOMETRIA II

BARQUISIMETO, ABRIL DEL 2020


MÉTODOS DE MÍNIMOS CUADRADOS ORDINARIOS

Uno de los puntos determinantes en la econometría se basa en el


procesamiento estadístico y para ello el método de Mínimos Cuadrados Ordinarios
MCO permite encontrar los Mejores Estimadores Lineales Insesgados.

Este método presenta muchas ventajas en cuanto a lo fácil de su uso y por lo


adecuado del planteamiento estadístico matemático que permite adecuarse a los
supuestos para los modelos econométricos.

El término de MCO está vinculado con la regresión y la correlación, ambas


determinan la existencia de relación entre dos o más variables (siempre una
dependiente y una o varias independientes).

La diferencia radica en que le regresión se expresa en una función o relación


funcional mediante una ecuación con su uso predictivo, y la correlación es un valor
que mide la intensidad con que están relacionadas linealmente las variables, se está
hablado de una regresión o correlación simple cuando se relacionan 2 variables, si
existen más se habla de una correlación múltiple (el alcance de este curso se limita a
la simple).

PROPIEDADES NUMERICAS DE LOS ESTIMADORES M.C.O


Las propiedades numéricas son las que se mantienen como consecuencia del
uso de mínimos cuadrados ordinarios, sin considerar la forma como se generaron los
datos.
SUPUESTOS DEL ‘‘MODELO DE GAUSS’’ Ó ‘‘MODELO CLÁSICO DE
REGRESIÓN LINEAL’’ (M.C.R.L)
El modelo de Gauss, modelo clásico o estándar de regresión lineal (MCRL),
es el cimiento de la mayor parte de la teoría econométrica y plantea siete supuestos.
Primero los estudiaremos en el contexto del modelo de regresión con dos variables y,
se extenderán a los modelos de regresión múltiple, es decir, modelos en los cuales
hay más de una regresora.
1 SUPUESTO:
Modelo de regresión lineal: El modelo de regresión es lineal en los
parámetros, aunque puede o no ser lineal en las variables.
2 SUPUESTO:
Valores fijos de X, o valores de X independientes del término de error: Los
valores que toma la regresora X pueden considerarse fijos en muestras repetidas (el
caso de la regresora fija), o haber sido muestreados junto con la variable dependiente
Y (el caso de la regresora estocástica).
SUPUESTO 3
El valor medio de la perturbación ui es igual a cero: Dado el valor de Xi, la
media o el valor esperado del término de perturbación aleatoria ui es cero.
SUPUESTO 4
Homoscedasticidad o varianza constante de ui: La varianza del término de
error, o de perturbación, es la misma sin importar el valor de X.

SUPUESTO 5
No hay autocorrelación entre las perturbaciones: Dados dos valores cuales
quiera de X, Xi y Xj (i __ j), la correlación entre dos ui y uj cualesquiera (i __ j) es
cero.
SUPUESTO 6
El número de observaciones n debe ser mayor que el número de parámetros
por estimar: Sucesivamente, el número de observaciones n debe ser mayor que el
número de variables explicativas.
SUPUESTO 7
La naturaleza de las variables X: No todos los valores X en una muestra
determinada deben ser iguales. Técnicamente, var(X) debe ser un número positivo.
Además, no puede haber valores atípicos de la variable X, es decir, valores muy
grandes en relación con el resto de las observaciones.
‘‘PRECISIÓN’’ Ó ‘‘ERROR ESTÁNDAR’’ DE LOS MÍNIMOS
CUADRADOS ESTIMADOS
Es evidente que las estimaciones de mínimos cuadrados son función de los
datos muestrales. Pero, como es probable que los datos cambien entre una muestra y
otra, los valores estimados cambiarán ipso facto. Por consiguiente, se requiere alguna
medida de “confiabilidad” o precisión de los estimadores βˆ1 y βˆ2. En estadística, la
precisión de un valor estimado se mide por su error estándar (ee).
El error estándar no es otra cosa que la desviación estándar de la distribución
muestral del estimador, y la distribución muestral de un estimador es tan sólo una
probabilidad o distribución de frecuencias del estimador, es decir, una distribución
del conjunto de valores del estimador obtenidos de todas las muestras posibles de
igual tamaño de una población dada. Con las distribuciones muestrales se infieren los
valores de los parámetros de la población, con base en los valores de los estimadores
calculados a partir de una o más muestras.
NÚMEROS DE GRADOS DE LIBERTAD
El término número de grados de libertad significa el número total de
observaciones en la muestra (_ n) menos el número de restricciones (lineales)
independientes o de restricciones que se les impusieron.
En otras palabras, es la cantidad de observaciones independientes de un total
de n observaciones. Por ejemplo, para calcular la SCR (3.1.2), es necesario obtener
antes β ˆ1 y β ˆ 2. Por consiguiente, estas dos estimaciones imponen dos restricciones
a la SCR. Son, entonces, n − 2 las observaciones independientes, y no n, para calcular
la SCR. Según esta lógica, en la regresión con tres variables SCR tendrá n − 3 gl, y
para el modelo de k variables tendrá n − k gl. La regla general es la siguiente: gl _ (n
− número de parámetros estimados).
‘‘ERROR ESTANDAR DEL VALOR ESTIMADO’’ Ó ‘‘ERROR
ESTANDAR DE LA REGRESIÓN’’
El error estándar no es otra cosa que la desviación estándar de la distribución
muestral del estimador, y la distribución muestral de un estimador es tan sólo una
probabilidad o distribución de frecuencias del estimador, es decir, una distribución
del conjunto de valores del estimador obtenidos de todas las muestras posibles de
igual tamaño de una población dada. Con las distribuciones muestrales se infieren los
valores de los parámetros de la población, con base en los valores de los estimadores
calculados a partir de una o más muestras

‘‘TEOREMA DE GAUSS-MARKOV’’ COMO EXPLICARLO DE LAS


PROPIEDADES DE LOS MÍNIMOS CUADRADOS
Como ya mencionamos, dados los supuestos del modelo clásico de regresión
lineal, las estimaciones de mínimos cuadrados poseen algunas propiedades ideales u
óptimas, las cuales están contenidas en el famoso teorema de Gauss-Markov. Para
entender este teorema necesitamos considerar la propiedad del mejor estimador lineal
insesgado, se dice que un estimador, por ejemplo, el estimador de MC β 2, es el mejor
estimador lineal insesgado (MELI) de β2 si se cumple lo siguiente:
1. Es lineal, es decir, función lineal de una variable aleatoria, como la variable
dependiente Y en el modelo de regresión.
2. Es insesgado, es decir, su valor promedio o esperado, E (βˆ2), es igual al valor
verdadero, β2.
3. Tiene varianza mínima dentro de la clase de todos los estimadores lineales
insesgado; un estimador insesgado con varianza mínima se conoce como
estimador eficiente.
El teorema de Gauss-Markov es notable, pues no hace ninguna suposición
respecto de la distribución de probabilidad de la variable aleatoria ui, y por
consiguiente, tampoco respecto de Yi. En la medida en que se satisfagan los
supuestos del MCRL, el teorema será válido. Como resultado, no se necesita buscar
otro estimador insesgado lineal, pues no habrá otro estimador cuya varianza sea más
pequeña que la del estimador de MCO. Por supuesto, si no se cumple una o más de
tales suposiciones, el teorema ya no es válido. Por ejemplo, si consideramos los
modelos de regresión no lineales en los parámetros, quizá se obtendrían estimadores
que funcionen mejor que los estimadores de MCO. Asimismo, si no se cumple el
supuesto sobre la varianza homoscedástica, los estimadores de MCO (aunque sean
insesgados y consistentes) ya no son los estimadores de varianza mínima, incluso
dentro de la clase de los estimadores lineales.
Las propiedades estadísticas que acabamos de exponer se conocen como
propiedades de muestras finitas: estas propiedades se mantienen sin importar el
tamaño de la muestra en que se basen los estimadores.

BONDAD DE AJUSTES
La bondad de ajuste de un modelo estadístico describe lo bien que se ajusta un
conjunto de observaciones. Las medidas de bondad en general resumen la
discrepancia entre los valores observados y los valores esperados en el modelo de
estudio. Tales medidas se pueden emplear en el contraste de hipótesis, e.g. el test de
normalidad de los residuos, comprobar si dos muestras se obtienen a partir de dos
distribuciones idénticas o si las frecuencias siguen una distribución específica

COEFICIENTE DE DETERMINACIÓN ‘‘R2’’ COMO MEDIDA DE LA


‘‘BONDAD DE AJUSTE’’
La bondad del ajuste de la línea de regresión a un conjunto de datos; es decir,
veremos cuán “bien” se ajusta la línea de regresión a los datos. Es claro que si todas
las observaciones cayesen en la línea de regresión, obtendríamos un ajuste “perfecto”,
pero rara vez se presenta este caso. Por lo general hay algunas uˆi positivas y algunas
uˆi negativas. Se tiene la esperanza de que estos residuos alrededor de la línea de
regresión sean lo más pequeños posibles. El coeficiente de determinación r 2 (caso de
dos variables) o R2 (regresión múltiple) es una medida comprendida que dice cuán
bien se ajusta la línea de regresión muestral a los datos.
SUMA TOTAL DE LOS CUADRADOS (STC)
La suma total de cuadrados (STC) nos permite medir la variabilidad total de
una variable dependiente, es decir, mide tanto la parte explicada por el modelo como
la parte no explicada por este.

La suma total de cuadrados es, de forma muy simple, la variabilidad total de


una variable que estamos intentando explicar o estimar.  Junto con la suma cuadrada
de los residuos y de la regresión. En lo que sigue explicaremos cómo se calcula. Y,
además, veremos un esquema con la relación entre todos sus componentes.

SUMA EXPLICADA DE LOS CUADRADOS (SEC)

La suma de cuadrados representa una medida de variación o desviación con


respecto a la media. Se calcula como una suma de los cuadrados de las diferencias
con respecto a la media. El cálculo de la suma total de los cuadrados considera tanto
la suma de los cuadrados de los factores como la de aleatoriedad o error.

COEFICIENTE DE CORRELACIÓN MUESTRAL (r)

Es relativamente frecuente que haya cierta confusión en relación a lo que


estudia un análisis de regresión y un análisis de correlación. Sin embargo, ambos
análisis ofrecen información complementaria. El Análisis de Regresión estudia la
forma en que ambas variables aleatorias están relacionadas, mientras que el Análisis
de Correlación investiga la fuerza de dicha relación. En esta entrada vamos a
conocer cómo se  calcula el coeficiente de correlación en R, coeficiente que nos va
a medir la fuerza y la dirección de la relación entre las dos variables.
Curiosamente, la abreviatura del coeficiente de correlación es
una r minúscula. De forma predeterminada, R nos va a calcular el coeficiente de
correlación de Pearson. Este tema sobre las regresiones y correlaciones no es nuevo
en Viva el Software Libre, como lo atestiguan estés, este otro sobre intervalos de
confianza, o este último sobre regresiones polinomiales. Y si estás interesado, en este
curso online es lo explico en detalle.
El coeficiente de correlación nos va a medir la fuerza y la dirección de la
relación lineal entre dos variables. Los valores que puede tomar siempre se
encuentran comprendidos entre +1 ó -1. Expresado matemáticamente sería así: -1
≤ r ≤ +1.

También podría gustarte