Econometria RLM
Econometria RLM
Econometria RLM
ECONOMETRIA
INTRODUCCIÓN
I. Relación de variables
La relación entre dos o más variables, es la
forma en que ellas se comportan entre sí.
Grafico X/Y
Gráfico de dispersión conjunta de dos variables
(X e Y).
Variable Y
Variable X
I. Relación lineal y no lineal
Variable X
I. Relación lineal y no lineal
20
0
0 20 40 60
15
o10. horas de trabajo, empleo principal
escolaridad
10 5
0
0 20 40 60 80 100
edad
I. Relación lineal y no lineal
Varianza y Covarianza
Varianza: Medida de dispersión de una variable.
𝑁 𝑛
∑ ( 𝑥𝑖 − 𝑥 )
2
∑ ( 𝑥𝑖 − 𝑥 )2
𝑖=1 𝑖=1
𝑉 𝑎𝑟 ( 𝑥 )= 𝑉 𝑎𝑟 ( 𝑥 )=
𝑁 𝑛 −1
∑ ( 𝑥𝑖− 𝑥) ( 𝑦𝑖 − 𝑦 ) ∑ ( 𝑥𝑖− 𝑥) ( 𝑦𝑖 − 𝑦
𝑖 =1
𝑜𝑣 ( 𝑥 , 𝑦 ) = 𝑖 =1 𝐶 𝑜𝑣 ( 𝑥 , 𝑦 ) =
𝑁 𝑛 −1
Parámetro Estimadores
II. COVARIANZA Y CORRELACIÓN
Covarianza
𝑛
∑ ( 𝑥𝑖− 𝑥) ( 𝑦𝑖 − 𝑦 )
𝑖 =1
𝐶 𝑜𝑣 ( 𝑥 , 𝑦 ) =
𝑛 −1
𝑦 𝑦 𝑦
𝑥 𝑥 𝑥
Correlación de Pearson
Medida de relación lineal entre dos variables
cuantitativas.
=
Correlación de Pearson
r=-1 Correlación negativa perfecta
r Correlación negativa de alta intensidad
r Correlación negativa de mediana intensidad
r Correlación negativa de baja intensidad
r Correlación negativa de muy baja intensidad
r=0 Nula correlación*
r Correlación positiva de muy baja intensidad
r Correlación positiva de baja intensidad
r Correlación positiva de mediana intensidad
r Correlación positiva de alta intensidad
r=1 Correlación positiva perfecta
Correlación de Pearson
r=1 700
r=0,78
700 600
600 500
Sueldo
500 400
Sueldo
400 300
300 200
200
100
100
0
0
3 6 9 12 15 18 21 24 27 30
1 2 3 4 5 6 7 8 9 10
r=0,02
15
10
5
0
Y
-5 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
-10
-15
X
II. COVARIANZA Y CORRELACIÓN
Correlación de Pearson
II. COVARIANZA Y CORRELACIÓN
Correlaciones espurias
http://www.tylervigen.com/spurious-correlations
https://twitter.com/clarroulet/status/730931861384507392
II. COVARIANZA Y CORRELACIÓN
Objetivos de investigación
• Determinar como incide A (independiente) en B
(dependiente).
El modelo: la recta
XY
Y
X
III. REGRESIÓN LINEAL SIMPLE
El modelo: la recta
Y=a+Xb
Intercepto pendiente
Eje y
y2
b
y1
a
x1 x2 Eje x
III. REGRESIÓN LINEAL SIMPLE
El modelo: la recta
Y=a+Xb
1200 Intercepto pendiente
Ingresos (Miles de pesos)
1000
800
600
400
200
0
0 2 4 6 8 10 12 14 16 18 20 22 24
Años de Escolaridad
Al aumentar en 1 los años de escolaridad, aumenta en b el ingreso
III. REGRESIÓN LINEAL SIMPLE
El modelo: la recta
Constante
Coeficiente del
Modelo: Indica el
efecto de X en Y
Y =a+ X b +e
Variable
Dependiente Variable Error: Variables no
Independiente observadas que
influyen en Y
III. REGRESIÓN LINEAL SIMPLE
El modelo: la recta
Constante
Coeficiente del
Modelo: Indica el
efecto de X en Y
Y =a+ X b +e
Variable
Dependiente Variable Error: Variables no
CUANTITATIVA Independiente observadas que
CUANTITATIVA influyen en Y
O
DUMMY
III. REGRESIÓN LINEAL SIMPLE
Variable
Dependiente Variable
Predicha Independiente
III. REGRESIÓN LINEAL SIMPLE
Estimación del modelo:
Residuo
Variable
dependiente
Variable
dependiente
predicha
Residuo
III. REGRESIÓN LINEAL SIMPLE
Estimación del modelo:
Residuo
Variable
dependiente
Variable
dependiente
predicha
Residuo
III. REGRESIÓN LINEAL SIMPLE
Ejercicio práctico
IV. REGRESIÓN LINEAL MÚLTIPLE
Objetivos de investigación
• Determinar como incide X1, X2, X3,…
(independiente) en Y (dependiente).
El modelo
rs
a
ye
IV. REGRESIÓN LINEAL MÚLTIPLE
El modelo: Variables
Y = a+ X1 b1+…+ Xk bk +e
Variable
Dependiente
CUANTITATIVA Variables independiente
CUANTITATIVAS
O DUMMY
IV. REGRESIÓN LINEAL MÚLTIPLE
El modelo: parámetros
Y = a+ X1 b1+…+ Xk bk +e
Constante
Efecto de X en Y
(controlando por las demás X)
IV. REGRESIÓN LINEAL MÚLTIPLE
Estimación del modelo
Estimador Estimador del Coeficiente
de la del Modelo: Indica el
Constante efecto de X en Y
Y = a+ X1 b1+…+ Xk bk
Variable
Dependiente Variables
Predicha Independientes
III. REGRESIÓN LINEAL MÚLTIPLE
Estimación del modelo:
Residuo
Variable
dependiente
Variable
dependiente
predicha
Residuo
III. REGRESIÓN LINEAL MÚLTIPLE
Supuestos del modelo
1. Relación lineal entre las variables
2. Errores independientes con E(e)=0
3. Homocedasticidad de los errores: Varianza de los
errores es constante
4. Ausencia de outliers
5. Independencia de X y errores
6. Ausencia de multicolinealidad: Variables
independientes deben ser independientes entre
sí.
III. REGRESIÓN LINEAL MÚLTIPLE
Ajuste del modelo: Coeficiente de
determinación (R2)
• Suma total de cuadrados:
2 𝑆𝑆 𝐸
• Suma de cuadrados residual: 𝑅=
𝑆𝑆 𝑇
Interpretación: El modelo
explica el R2*100% de la
varianza de la variable
dependiente
III. REGRESIÓN LINEAL MÚLTIPLE
ANOVA y Estadístico T y F
• Media cuadrática:
– Residual (MSR)=SCR/n-(k+1)n-(k+1) gl
– Explicada (MSE): SCE/[(k +1) – 1]k gl
• Estadístico
• H0:
• F>F crítico se rechaza H0; P<a se rechaza H0 y se
acepta la H1.
III. REGRESIÓN LINEAL MÚLTIPLE
Prueba de hipótesis (Estadístico T y
F)
Sirve para contrastar individualmente la
significancia de las variables independientes,
conforme a la siguiente estructura de la prueba:
H0: bi = 0
H1: bi ≠ 0
activ
desocupados -133848.9 3857.108 -34.70 0.000 -141408.7 -126289.1
inactivos -44823.11 1562.065 -28.69 0.000 -47884.72 -41761.49