Tema-7 FIN (14-5-20)
Tema-7 FIN (14-5-20)
Tema-7 FIN (14-5-20)
2
1- INTRODUCCIÓN
- Objetivo:
Estudiar la relación entre una variable dependiente cuantitativa (Y) y una o
varias variables independientes cuantitativas (X),consideradas conjuntamente
- Para ello es necesario tener medidas de todos los sujetos en todas las
variables
3
Diferencia entre regresión y correlación lineal simple:
Correlación:
El objetivo es conocer la relación entre dos variables aleatorias X e Y, es decir,
si las modalidades de una variable están asociadas con las de otras (ej: rxy)
Regresión:
El objetivo es predecir una variable dependiente Y a partir de las puntuaciones
de los sujetos en otra variable X.
4
2- CORRELACIÓN Y REGRESIÓN LINEAL SIMPLE
2.1 Modelo
Valor Efectos debidos Efectos debidos a
observado = a factores + Efectos debidos a factores + factores no
en la VD constantes tenidos en cuenta (VVII) controlados
Yi = β0 X i0 +β1 X i1 + β2 X i2 + ...+ βk X ik +ε
i
Modelo de Regresión Lineal Simple
Yi = α + βX i + ε i Su representación
gráfica en una
Ordenada en el origen (α): recta
Magnitud común a todos los
Pendiente (β): Peso de la variable X en Error para cada sujeto
sujetos. Valor que de Y
la ecuación o tasa de cambio: cambio en
cuando X=0
Y por cada unidad de cambio en X
5
- Para poder aplicar el modelo es necesario comprobar que existe relación lineal entre
la VD (Y) y la VI (X), es decir, que los puntos en el diagrama de dispersión se sitúan
en torno a una línea recta
Ejemplo: Consumo diario de cigarrillos (X); Días de ausencia al trabajo al año (Y)
12 y = 0.2429x + 2.8714
10
8
ausencias
0
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
cigarrillos
6
- Para un mismo diagrama de dispersión pueden ajustarse muchas rectas (modelos)
diferentes
Ejemplo: Consumo diario de cigarrillos (X); Días de ausencia al trabajo al año (Y)
12 y = 0.2429x + 2.8714
10
8
ausencias
0
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
cigarrillos
7
Estimadores del modelo de regresión
Recta regresión
poblacional
E(Yi ) = α + βX i ei = Yi − Yi'
Recta regresión
estimada
Yi = a + bX i
'
α = µ y − βµ x σy
β = ρ xy
σx
a = Y − bX Sy
b = rxy
Sx
8
Ecuación de la recta regresión lineal en puntuaciones directas
X VI o Variable predictora
'
Y Variable pronosticada o pronóstico
Y ≠ Yi
i
'
ei = (Yi − Y )
i
'
ei = (Yi − Yi ' ) =
12 y = 0.2429x + 2.8714
= 4 − 4,81 = −0,81 Yi ' = α + bX i
10 Yi ' = 2,8714 + 0,2429 X i
Error al predecir
la ausencia del 8
ausencias
cigarrillos
10
Ecuación de la recta regresión lineal en puntuaciones típicas
β = ρxy
Número de desviaciones
beta = rxy típicas que cambia Y
cuando X cambia una
desviación típica X
11
2.2 Contraste de hipótesis
E(Yi ) = α + βX i
Yi′ = a + bX i
12
- Contraste sobre la pendiente
1. H0: β = 0
H1: β ≠ 0
2. α
3. SUPUESTOS:
- Independencia: 1 m.a.s. medida en las variables X e Y
- Normalidad bivariada:
Yi → N(µ y xi , σ i2 )
ε i → N (0,σ i2 )
- Homocedasticidad
σ 2y x1 = σ 2
y x2 = ... = σ 2
y xk = σ 2
13
Normalidad bivariada :
Y N(µ y x k , σ 2 )
N(µ y x 2 , σ 2 )
N(µ y x1 , σ 2 )
x1 x2 …………….…… xk X 14
4. ESTADÍSTICO DE CONTRASTE
b
T= ~2 → tn−2
Se
∑ (x − x )
2
i
Sb Error típico de
∑( )
2
yi − y′i estimación de la
S˜e2 = pendiente de la
n−2 recta de
Regresión
15
5. REGIÓN CRÍTICA Y CRITERIO DE DECISIÓN
Contraste
bilateral
α /2 α /2
0
- Contraste bilateral [
p = 2 P(t n−2 ≥ t k ) ] obtenido en la
muestra 16
7. INTERVALO DE CONFIANZA
α /2 α /2
LI = b − t
α 2 n −2 Sb Ls = b + t
α 2 n −2 Sb
Error máximo Error máximo
17
Ejemplo
12 y = 0.2429x + 2.8714
Yi ' = α + bX i
10 Yi ' = 2,8714 + 0,2429 X i
8
ausencias
0
Ordenada (a)
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 Pendiente
cigarrillos Pendiente (b) en puntuaciones
típicas
18
ECUACIÓN DE REGRESIÓN EN DIRECTAS
H0 : α = 0
H1 : α ≠ 0
Como n.c. (0,032) <0,05, rechazamos la hipótesis nula y tomamos como estimación
de la ordenada el valor 2,871
H0 : β = 0
H1 : β ≠ 0
Como n.c. (0,005) <0,01, rechazamos la hipótesis nula y tomamos como estimación
de la pendiente el valor 0,243
Ecuación de regresión de Y sobre X, predecir Y a partir de X. Ejemplo:
Yi' = 2,871+ 0,243X i a una persona que fume 30 cigarrillos diarios se le predecirá una
19
ausencia :
Yi' = 2,871+ 0,243• 30 = 10,16
ECUACIÓN DE REGRESIÓN EN TÍPICAS
H0 : β = 0
H1 : β ≠ 0
Como n.c. (0,005) <0,01, rechazamos la hipótesis nula y tomamos como estimación
de la pendiente de la ecuación en puntuaciones típicas el valor 0,866
20
- Contraste sobre el coeficiente de correlación
1. H0: ρxy = 0
H1: ρxy ≠ 0
2. α
3. SUPUESTOS:
21
4. ESTADÍSTICO DE CONTRASTE
rxy n − 2
T= 2
→ t n−2
1− r xy
α /2 α /2
0
T≤α / 2 t n−2 T≥1−α / 2 t n−2
- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región
crítica, existe relación lineal entre X e Y estadísticamente significativa
- Mantenemos H0 si el valor obtenido en la muestra para el E.C. cae en la región de
aceptación, no existe relación lineal entre X e Y estadísticamente significativa
22
6. NIVEL CRÍTICO
- Contraste bilateral [ ]
p = 2 P(t n−2 ≥ t k ) Valor del E.C.
obtenido en la
muestra
7. INTERVALO DE CONFIANZA
23
Ejemplo
H0 : ρ xy = 0
H1 : ρ xy ≠ 0
Como n.c. (0,005) <0,05, rechazamos la hipótesis nula de que no existe relación lineal
entre el número de cigarrillos que se fuma al día y los días que se falta al trabajo en un
año.
rxy = 0,866 Igual al valor de la pendiente de la ecuación de regresión en puntuaciones
típicas
rxy2 = 0,751 Hay un 75,1% de varianza asociada entre el número de cigarrillos que
se fuma al día y los días que se falta al trabajo en un año 24
- Contraste conjunto sobre el modelo de regresión
(mediante el análisis de varianza)
Ejemplo. Sujeto 1
25
• El error cometido al utilizar la media para pronosticar
ei = (Yi − Y ) = 4 − 7 = −3
• El error cometido al utilizar la recta de regresión
(4 − 7) = (4,81− 7) + (4 − 4,81)
Parte del error que dejamos de Parte del error que seguimos
Error al predecir
cometer al utilizar la recta de cometiendo al utilizar la recta de
mediante la media
regresión, al predecir las regresión, al predecir las ausencias
ausencias teniendo en cuenta teniendo en cuenta que fuma 8 26
que fuma 8 cigarrillos al día cigarrillos al día
Ejemplo: Consumo diario de cigarrillos (X); Días de ausencia al trabajo (Y)
ei = (Yi − Yi ' ) =
12 y = 0.2429x + 2.8714
= 4 − 4,81 = −0,81 Yi ' = α + bX i
10 Yi ' = 2,8714 + 0,2429 X i
Error al predecir,
utilizando recta de 8
ausencias
regresión, la
ausencia del sujeto a 6
partir del número de
4,81
ei = (Yi-Ῡ) = 4-7= -3
cigarrillos que fuma 4 Error al predecir, utilizando la
(8), falta 4 días y le media, la ausencia del sujeto a partir
predecimos 4,81 2 del número de cigarrillos que fuma
(8), falta 4 días y le predecimos 7
0
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
cigarrillos
27
∑(Y − Y ) = ∑(Y ′ − Y ) + ∑(Y − Y′)
2 2 2
n-1 k n-k-1
ESTADÍSTICO DE CONTRASTE
SCREG MCREG
MCREG = F= P(F<1−α F1,(n−2) )
Regresión SCREGRESIÓN 1 1 MCERROR
SCERROR
MCERROR =
Error SCERROR (n-2) (n − 2)
2
2 S y′ SCREGRESION SCERROR Estimador sesgado, sobre
rxy = = = 1− todo si el tamaño de la
2 SCTOTAL SCTOTAL
Sy muestra es pequeño
2 Coeficiente de
2 SCERROR (n − 2) (1− rxy )(n − 1) determinación ajustado
rAJ . = 1− = 1−
SCTOTAL (n − 1) (n − 2) o corregido: estimador
insesgado
30
Ejemplo
Como sig. (0,005) <0,01, rechazamos la hipótesis nula y afirmamos que el modelo de
regresión es estadísticamente predictivo
Estimador insesgado del tamaño del efecto: un 70,9% de la variabilidad de los días que
se falta al trabajo en un año se puede predecir a partir del número de cigarrillos que se
fuma al día. 31
2.3 Relaciones entre el coeficiente de correlación lineal y
la recta de regresión lineal simple
E(Yi ) = α + βX i
Si ρ xy > 0 → β > 0
Si ρ xy < 0 → β < 0
32
Si se rechaza la Ho del modelo de regresión lineal simple
33
2.4. Interpretación del coeficiente de determinación (r2xy)
en regresión lineal
34
- r2xy Proporción de varianza de Y asociada a la varianza de X
2 2 2
σ =σ +σ
y y′ y⋅x
n n n
∑ (Y − E (Y ))
i
2
∑ ( E (Y i ) − E (Y )) 2 ∑ (Y − E (Y ))
i i
2
i =1
= i =1
+ i =1
n n n
n n n
∑ (Yi − Y ) 2
∑ (Y ´−Y ) 2
∑ i
(Y − Y ´)2
i =1
= i =1
+ i =1
n n n
σ2 σ2 σ2 σ2
ρ xy 2 = 1− ρ xy 2 = 1−
y′ y⋅x y′ y⋅x
= 1− =
σ2 σ2 σ2 σ2
y y y y
36
Ejemplo
y = 0.2429x + 2.8714
Ausencias Cigarrillos Predicción Error 12
ausencias
6.00 16.00 6.76 -0.76 6
cigarrillos
S2 = S2 + S2
y y′ y⋅x
2,75 = 2,07 + 0,68 S 2 = 2,75
y
S 2 = 2,75 S 2 = 2,07 S 2 = 0,68 S2
2,07 S2 = 0,68
y y' y.x rxy 2 =
y′
= = 0,75 y.x
S2 2,75
y
Variabilidad total Parte de la Parte de la
de ausencias variabilidad de las S 2 = 2,07
variabilidad de las y'
ausencias que ausencias que no
puede predecirse puede predecirse
(está asociada) a (no está asociada) a
partir del número partir del número
de cigarrillos de cigarrillos 37
- r2xy Índice de ajuste de los puntos a la recta de regresión
σ2
Cuanto más próximos están los puntos a la recta de
regresión → menor error se comente por término
ρ xy 2 = 1−
y⋅x
σ2 medio → mayor será el valor del coeficiente de
y correlación
10 10
8 8
ausencias
ausencias
6 6
4
2
ρ xy 2 = 0,55
4
2
ρ xy = 0,75 2
0 0
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
cigarrillos cigarrillos
38
- r2xy Proporción de error reducido
σ2 =σ2 +σ2
y y′ y⋅x
n n n
∑ i
(Y − E(Y )) 2
∑ i
(E(Y ) − E(Y )) 2
∑ i
(Y − E(Yi )) 2
i=1
= i=1
+ i=1
n n n
39
σ2 =σ2 +σ2
y y′ y⋅x
σ2 σ2 σ2 σ2
ρ xy 2 = 1− ρ xy 2 = 1−
y′ y⋅x y′ y⋅x
= 1− =
σ2 σ2 σ2 σ2
y y y y
X
41
2. Influencia de otras variables
Motivación baja
Inteligencia
42
3. Existencia de valores atípicos
datos atípicos
Rendimiento bivariados
Emocionalidad
43
3- CORRELACIÓN Y REGRESIÓN LINEAL MÚLTIPLE
3.1 Modelo
Valor Efectos debidos Efectos debidos a
Efectos debidos a factores +
observado a factores + factores no
= tenidos en cuenta (VVII)
en la VD constantes controlados
Yi = β0 X i0 +β1 X i1 + β2 X i2 + ...+ βk X ik +ε i
Modelo de Regresión Lineal Múltiple
Yi = β 0 + β1 X i1 + β 2 X i2 + ...+ β k X ik + εi
′
Yi = b0 + b1X i1 + b2 X i 2 + ...+ bk X ik Ecuación de regresión
estimada en la muestra
Z 'Yi = beta1Z ' X i1 +beta2 Z ' X i 2 +... + betak Z ' X ik Ecuación de regresión
estimada en la muestra
46
Importante
47
3.2 Contraste de hipótesis
4. ρ2Y.1,2…k → R2Y.1,2…k
48
- Contraste sobre el modelo de la regresión.
Pone a prueba si la variación de Y explicada por el modelo es superior a la
no explicada.
- Normalidad multivariada:
Yi → N(µY/ X1,X2…Xk, σ2y )
εi → N(0, σ2e)
- Homocedasticidad
- Linealidad
49
∑(Y − Y ) = ∑(Y ′ − Y ) + ∑(Y − Y′)
2 2 2
n-1 k n-k-1
ESTADÍSTICO DE CONTRASTE
Predecir las nota media académica (Y) a partir de las variables capacidad de resolución
problemas (X1), riqueza de vocabulario (X2), C.I. Total (X3), originalidad (X4), riqueza
expresiva (X5) y creatividad global (X6)
Como sig. (0,000) <0,001, rechazamos la hipótesis nula y afirmamos que el modelo
de regresión es estadísticamente predictivo
52
- Contraste sobre ρ 2
Y .1, 2...k
2
2 SCERROR (n − k − 1) (1− R y,1,2...k )(n − 1)
R AJ . = 1− = 1−
SCTOTAL (n − 1) (n − k − 1)
53
Ejemplo
Predecir las nota media académica (Y) a partir de las variables capacidad de resolución
problemas (X1), riqueza de vocabulario (X2), C.I. Total (X3), originalidad (X4), riqueza
expresiva (X5) y creatividad global (X6)
H0 : ρ2Y.1,2,3,4,5,6= 0
54
- Contraste sobre las pendientes de la regresión
H0 : βj= 0
H1 : βj ≠ 0
55
Ejemplo
Predecir las nota media académica (Y) a partir de las variables capacidad de resolución
problemas (X1), del riqueza de vocabulario (X2), del C.I. Total (X3), de la originalidad (X4),
de la riqueza expresiva (X5) y la creatividad global (X6)
H 0 : β 0 = 0 → Se rechaza
H 0 : β1 = 0 → Se rechaza
H 0 : β 2 = 0 → Se rechaza
H 0 : β 3 = 0 → Se mantiene
H 0 : β 4 = 0 → Se mantiene
H 0 : β 5 = 0 → Se mantiene
H 0 : β 6 = 0 → Se mantiene
• Ausencia de multicolinealidad
La multicolinealidad indica correlación elevada entre las variables predictoras. Se
analiza mediante el índice de Tolerancia.
59
Normalidad: histograma de residuos
60
Normalidad: gráfico P-P de residuos tipificados
Probabilidad
acumulada
esperada si la
distribución es
normal
Residuos
Pronóstico
Pronóstico
Pronóstico
No se cumple el supuesto de homocedasticidad y sí el de linealidad
64
Residuos
Pronóstico
Pronóstico
Existencia de atípicos
66
Robustez de F frente al incumplimiento de los supuestos
67
3.4 Correlación múltiple, parcial y semiparcial
2
∆R 2
ry 2.1=
1 − R y2.1 68
Correlación semiparcial
ry(2.1) = ry(x −x ′ ) x 2 ′ = a + b x1
2 2
Incremento en R2 al incluir X2
ry2( 2.1) = ∆R 2
R y2.12 = ry21 + ry2( 2.1)
69
Variabilidad de (Y) =1
X2
X1
2
r
y(1.2) B C D 2
ry(2.1)
ry12 ry22
A
2
R y.12
2
1− Ry.12
70
0 ≤ Ry.1,2...k ≤ 1 Ry.1,2...k = ryy′
Correlación parcial
ryj.12...h = r(y −y ′ )(x −x ′ ) y′ = b0 + b1 x1 + b2 x 2 + ... + bh x h
j j
x j ′ = b0 + b1 x1 + b2 x 21 + ... + bh x h
La relación entre la VD y una VI (Xj), eliminando de ambas la influencia de varias VVII
Incremento en R2 al incluir Xj
r2 = ∆R 2
yj.12...h
72
3.5 Multicolinealidad
Tol( j) = 1− R 2j.1,2,3... p
Tol(j) ≈ 1 j no correlaciona con resto de VVII
Tol(j) ≈ 0 j correlación muy alta con el resto VVII
Problema: TOL <0,2
74
3.6 Métodos de selección de variables
• El objetivo es conseguir una ecuación que explique el mayor porcentaje de
variabilidad de la variable dependiente con el menor número posible de
predictores o variable independientes: principio de parsimonia
• El modelo resultante depende tanto de las variables que han sido consideradas
para formar parte de la ecuación como de las que no han sido consideradas
pero tienen relación con la variable dependiente
75
Introducir
Secuencial o jerárquica
76
Introducir (ejemplo diapositiva 55)
77
Stepwise (regresión por pasos)
1. Se escoge como primera variable predictora la que tiene mayor correlación lineal simple
con la variable dependiente y se calcula si la ecuación regresión con esta variable es
predictiva. Si no se rechaza la hipótesis (β1 = 0), se termina el proceso, si la ecuación es
predictiva se pasa al punto 2.
2. Se escoge de entre las restantes variables aquella que tiene mayor corrección parcial con
la variable dependiente una vez que se elimina el efecto de la variable que ya está en la
ecuación. Se comprueba si el incremento en el coeficiente de correlación múltiple al
introducir esta nueva variable es estadísticamente significativo. Si no lo es, se termina el
proceso; si lo es se pasa al punto 3.
4. Se escoge de entre las restantes variables aquella que tiene mayor corrección parcial con
la variable dependiente una vez que se elimina el efecto de las variables que están en la
ecuación en el paso anterior. Se comprueba si el incremento en el coeficiente de
correlación múltiple al introducir esta nueva ecuación es estadísticamente significativo.
Si no lo es se termina el proceso; si lo es se pasa al punto 3. 78
Ejemplo mediante el método stepwise
Predecir las nota media académica (Y) a partir de las variables capacidad de resolución
problemas (X1), riqueza de vocabulario (X2), C.I. Total (X3), originalidad (X4), riqueza
expresiva (X5) y creatividad global (X6)
Ordenada en
el origen
Pendientes
en
puntuaciones
Yi′ = 2,008 + 0,637X i1 + 0,02X i 2 ZY′ i = 0,829Z Xi1 + 0,106Z Xi 2
directas
Ejemplo de pronóstico. Predecir la nota media a un alumno que tenga un 10 en resolución de problemas y 7 en
Vocabulario.
Y ´ = 2,008 + 0,637(10) + 0,022 (7) = 8,532 pronosticamos en nota media 81
Predecir las nota media académica (Y) a partir de las variables capacidad de resolución
problemas (X1), riqueza de vocabulario (X2), C.I. Total (X3), originalidad (X4), riqueza
expresiva (X5) y creatividad global (X6)
Pendientes o coeficientes de Significación ó nivel crítico
las VV predictoras de las Pendientes
Correlación entre la nota
media académica y cada uno
de los predictores, una vez
eliminada la influencia de la
resolución de problemas (el
predictor que ya está en la
ecuación)
82
Predecir las nota media académica (Y) a partir de las variables capacidad de resolución
problemas (X1), riqueza de vocabulario (X2), C.I. Total (X3), originalidad (X4), riqueza
expresiva (X5) y creatividad global (X6)
Equivale el método de spetwise, pero una vez que una variable entra en la
ecuación de regresión no se revisa la posibilidad de que salga.
85
Secuencial o jerárquica
El procedimiento por pasos suele ser útil en fases iniciales o exploratorias de la
investigación. Pero si deseamos tener en cuenta consideraciones teóricas que
sustenten el modelo de regresión se suele utilizar la regresión jerarquica.
Se introducen k bloques cada uno con una o más variables que el que le precede.
En cada fase puede verse el cambio o incremento sobre R2 producido por la
introducción del nuevo bloque. Se utiliza el contraste F para evaluar la
significación del predictor o bloque de predictores añadidos.
86
Ejemplo mediante el regresión jerarquica
Se sabe que la nota media académica (Y) se relaciona con las variables CI y capacidad de
resolución de problemas. Estamos interesados en conocer si la variable vocabulario produce
un incremento significativo en la predicción de la nota media producida por las dos
predictoras anteriores. Por eso se introducen en un primer bloque las dos primeras y en el
segundo bloque la tercera.
La variable
∆R 2 = Rmodelo
2
completo − Rmodelo reducido = 0,778 − 0,774 = 0,004
2 Vocabulario
proporciona un
La introducción de la incremento, 0,004,
Hay un 77,4% de la variabilidad en las nota media variable vocabulario en el
estadísticamente
académica que se puede predecir a partir de la de segundo bloque produce un significativo en la
resolución de problemas y CI incremento del 0,4 % de la predicción de la nota
variabilidad en las nota media (sig<0,05)
Hay un 77,8% de la variabilidad en las nota media
media académica que se
académica que se puede predecir a partir de
puede predecir a partir de
resolución de problemas , CI y vocabulario. Este es
las variables del primer
el ajuste del modelo definitivo
bloque
HIPÓTESIS ANOVAS
Modelo 1 (primer bloque)
H0: β1= β2= 0
La ecuación de regresión para predecir nota
media a partir de resolución de problemas y CI
no es estadísticamente predictiva. Como
sig<0,001 la rechazamos y concluimos que si es
predictiva
Correlación entre la nota media académica y cada Correlación entre la nota media académica y cada
uno de los predictores, una vez eliminada la uno de los predictores, una vez eliminada la
influencia sobre ambos de los otros predictores de influencia, sólo sobre ese predictor, de los otros
este bloque. predictores de este bloque
0,789 es la correlación entre la nota media y resolución de 0,607 es la correlación entre la nota media y resolución de
problemas después de eliminar el influjo del CI sobre ambas problemas después de eliminar el influjo del CI sobre
0,793 es la correlación entre la nota media y resolución de resolución de problemas
problemas después de eliminar el influjo del CI y de 0,608 es la correlación entre la nota media y resolución de
vocabulario sobre ambas problemas después de eliminar el influjo del CI y de
vocabulario sobre a resolución de problemas
89
Tolerancia: Uno menos la correlación al cuadrado entre cada una de las predictoras con todas las
demás predictoras que aparecen en el modelo. Nos indica la colinealidad de esa predictora con la
restantes del modelo
0,544 es la Tolerancia, es decir, el índice de colinealidad entre resolución de problemas y CI .
0,345 es la Tolerancia, es decir, el índice de colinealidad entre el CI y, la nota media y resolución
de problemas conjuntamente
90
3.7 Interpretación de los pesos en la ecuación de regresión
91
• El hecho de que una variable haya quedado fuera de la ecuación no quiere decir
necesariamente que no tenga relación con la variable dependiente, puede ser que
lo que explica dicha variable ya esté explicado por otras variables
92
• Tenemos 3 variables predictoras X1, X2 y X3, estando muy correlacionadas X1 y
X2. En este caso, puede ser que una de ellas no entre en la ecuación porque aporta
poco a lo que ya explica la otra
Variabilida
d de X3
Variabilidad
de X1
Variabilidad
e X2
Variabilidad de Y
93
• Si sólo estuvieran X3 y X1, ésta última entraría en la ecuación
Variabilidad
de X3
Variabilidad
de X1
Variabilidad de Y
94
• Si sólo estuvieran X3 y X2, ésta última entraría en la ecuación
Variabilidad
de X3
Variabilidad
e X2
Variabilidad de Y
95
4- TAMAÑO MUESTRAL REQUERIDO EN
REGRESIÓN LINEAL
- software G*power
96
5- PRESENTACIÓN DE RESULTADOS
• Tablas:
97
• Tabla resumen de los resultados de la regresión por el método de pasos
sucesivos
*** P<,000
98
• Tabla resumen de los resultados de la regresión jerarquica
∆R
2 2
Variable B ET B Beta R
Bloque 1 ,774*** ,774***
Constante 2,080 ,411
CI ,008 ,004, ,084
Resolución probl. ,632 ,034 ,822
99
Fichero de datos de SPSS del Ejemplo diapositiva 37
ausencias cigarrillos
1 4 8
2 6 8
3 6 16
4 7 16
5 8 20
6 7 20
7 8 24
8 10 24
2
Sujetos
3
5
101
…..
102
1. Variable
dependiente o criterio
rxy entre la
nota media y
cada una de
las
predictoras
107
En el primer bloque (Modelo 1), hemos
pedido pronosticar la nota media a partir de
resolución de problemas y CI total obtenido
en el WISC
108
*** Las dos tablas están comentadas en las diapositivas 88, 89 y 90
109
La tabla variables excluidas, nos informa de las variables que NO se han incluido en la ecuación
de regresión de un modelo. En este caso, en el modelo 1 no está la variable vocabulario, sólo resolución
de problemas y CI
110
Examinamos la distribución normal de los errores
cometidos a pronosticar la nota media académica
a partir de la ecuación de regresión.
Desviaciones de la diagonal = Desviaciones de la
normalidad.
En nuestro caso, hay poca desviación, parece que
se cumple el supuesto de normalidad de los
errores.
Examinamos la
homocedasticidad y linealidad.
111
Presentación de resultados
Se realizó un análisis de regresión lineal múltiple jerárquica con el objetivo
de comprobar si la variable vocabulario produce un incremento significativo
en la predicción de la nota media académica producida por las variables CI
y capacidad de resolución de problemas.
2
Sujetos
3
…
..
113
114
1. Variable
dependiente o criterio
3. Seleccionar Método
Escalonado (por pasos o
stepwise)
115
116
117
118
Estadísticos descriptivos de la variable criterio
(nota media) y las predictoras (resolución de
problemas, vocabulario, CI, originalidad,
riqueza expresiva, creatividad)
rxy entre la
nota media y
cada una de
las
predictoras
119
Valores próximos a 2 (1,5-2,5)
indican que se cumple el supuesto de
independencia.
120
*** Las dos tablas están comentadas en las diapositivas 70, 80 y 81
121
En el paso 1 entra resolución de problemas
En el paso 2 entra vocabulario. Las dos
predictoras, en este paso, son resolución de
problemas y vocabulario
La tabla variables excluidas, nos informa de las variables que NO se han incluido en la ecuación
de regresión de un modelo. En este caso, en el modelo 1 están todas la variables excepto la que entra en
este paso, resolución de problemas. En el modelo 2 queda excluidas todas, excepto la que ha entrado en
el paso 1 y la que entra en el paso 2, vocabulario.
CI, originalidad, riqueza expresiva y creatividad, quedan excluidas de la ecuación de regresión porque
no son estadísticamente significativas en el incremento de R cuadrado. (todas las sig >0,05)
122
Examinamos la distribución normal de los errores
cometidos a pronosticar la nota media académica
a partir de la ecuación de regresión.
Desviaciones de la diagonal = Desviaciones de la
normalidad.
En nuestro caso, hay poca desviación, parece que
se cumple el supuesto de normalidad de los
errores.
Examinamos la
homocedasticidad y linealidad.
123
Presentación de resultados
Se realizó un análisis de regresión lineal múltiple por pasos con el objetivo
predecir las nota media académica a partir de las variables: capacidad de
resolución problemas, riqueza de vocabulario, C.I. Total, originalidad, riqueza
expresiva y creatividad global.