Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% encontró este documento útil (0 votos)
61 vistas56 páginas

Clase 11

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 56

Modelos Lineales

Unidad 2
Modelos de Regresión Lineal Normal
Temas
ü Modelo de Regresión Lineal Normal (MRLN)
ü Inferencia del Modelo de Regresión Lineal Normal
ü Coeficiente de Correlación y coeficiente de Determinación
ü Intervalos de confianza
ü Pruebas de hipótesis asociadas al MRLN
ü Tabla ANOVA
ü Extrapolación Oculta en el MRLN
Clase 9
Modelo de Regresión Lineal Normal
Modelo de regresión lineal normal

ü 𝑌 es variable aleatoria – 𝑌 tiene una distribución de probabilidad

ü Modelo de regresión (MRLN):


𝑌! ∼ 𝑁 𝜇! , 𝜎 "
𝜇! = 𝑥!# 𝛽
Para 𝑖 = 1, ⋯ , 𝑛.

ü Representación estocástica:
Método de máxima verosimilitud en el MRLN

Sea 𝜃 = (𝛽# , 𝜎 " )′, recordemos que 𝜺 = (𝑌 − 𝑋𝛽) y 𝜺 ∼ 𝑁(𝟎, 𝜎 " 𝐼$ )

Función de verosimilitud del MRLN:


1
𝐿 𝜃 = 2𝜋𝜎 " %$/"
exp − 𝑌 − 𝑋𝛽 #
𝑌 − 𝑋𝛽
2𝜎 "

¿Qué valor de 𝛽 maximiza la función de verosimilitud?


Método de máxima verosimilitud en el MRLN

El estimador de 𝛽 está dado por

𝛽> = 𝑋 # 𝑋 %'
𝑋# 𝑌

¿Cómo hallar el estimador de máxima verosimilitud de 𝜎 " ?


Observaciones

ü El EMV de 𝛽 en el MRLN coincide con el estimador de mínimos cuadrados de 𝛽 en el


MRL.

ü El EMV de 𝜎 " en el MRLN no es insesgado. Sin embargo, es asintóticamente


insesgado.

?" = 𝑛 − 𝑝 − 1 𝑀𝑆𝐸
𝜎
𝑛
Clase 10
Inferencia del Modelo de Regresión Lineal Normal
Distribución muestral de los parámetros

En el MRLN se tiene que:


ü 𝛽> = 𝑋 # 𝑋 %' 𝑋 # 𝑌
con E 𝛽> = 𝛽
Var 𝛽> = 𝜎 " 𝑋 # 𝑋 %'

Como 𝑌 ∼ 𝑁$ 𝑋𝛽, 𝜎 " 𝐼$ , entonces

𝛽> ∼ 𝑁()' (𝛽, 𝜎 " 𝑋 # 𝑋 %'


)
Luego
𝛽!! ∼ 𝑁" (𝛽! , 𝑎!! 𝜎 # )
Donde 𝑗 = 0, 1, ⋯ , 𝑝
¿Qué representa 𝑎!! ?
Distribución muestral de los parámetros

En el MRLN se tiene que:


H
ü Un estimador insesgado para la Var 𝛽> está dado por Var 𝛽> = MSE 𝑋 # 𝑋 %'

?* y 𝛽K+ , 𝐶𝑜𝑣 𝛽
ü La covarianza entre dos estimadores 𝛽 ?* ,𝛽K+ = 𝑎*+ 𝜎 "

?* y 𝛽K+ son independientes?


¿Cuándo 𝛽
Distribución muestral de los parámetros

Para el MRLN simple (𝑝 = 1) muestre que:

?' = 𝑆,- /𝑆,, ,


ü𝛽
'
donde 𝑆,- = ∑!.' 𝑥! 𝑦! − $ ∑$!.' 𝑥! ∑$!.' 𝑦! y 𝑆,, = ∑$!.' 𝑥!" − ∑$!.' 𝑥! " /𝑛.

ü𝛽 ?' X
?/ = 𝑌S − 𝛽 T.

$
∑!"# ,! " % %
2
ü Var 𝛽>/ = $1 𝜎 y Var 𝛽>' = 1
&& &&

$
?' = % ∑!"# ,! 𝜎 "
?/ ,𝛽
ü Cov 𝛽 $1 &&
Sumas cuadráticas
Se hacen inferencias del MRLN vía Análisis de Varianza (ANOVA)
S Desviación total
𝑌! − 𝑌:
S Desviación del valor ajustado en torno a la media
𝜇Y! − 𝑌:
𝑌! − 𝜇Y! : Desviación en torno al valor ajustado

Notemos que:
Para 𝑖 = 1, ⋯ , 𝑛.

𝑌! − 𝑌S = (𝑌! − 𝜇Y! ) + 𝜇Y! − 𝑌S


Sumas cuadráticas
Una medida de variabilidad total de los 𝑌' , SSTO, esta dada por la suma de los cuadrados de las
desviaciones totales:
ü SSTO: $

𝑆𝑆𝑇𝑂 = % 𝑌! − 𝑌( %

!"#

Representa la incertidumbre de la variable respuesta, cuando no se tienen en cuenta las variables


regresoras.
ü SSE: suma de los cuadrados de los errores *
+
𝑆𝑆𝐸 = % 𝑌' − 𝜇''
'()
Representa la variabilidad de las observaciones cuando se tienen en cuenta las variables
regresoras.
ü SSR: suma de los cuadrados de las del modelo de regresión
*
+
𝑆𝑆𝑅 = % 𝜇 T
[! − 𝑌
'()
Representa la variabilidad de las observaciones explicada por la función de regresión.
Sumas cuadráticas
Observaciones:
ü Si todos los 𝑌! son iguales entonces SSTO= (𝑆𝑆𝑇𝑂 = ∑$!"# 𝑌! − 𝑌9 %)
ü Si todos los 𝑌! están en el hiperplano de regresión , entonces SSE= (𝑆𝑆𝐸 = ∑$!"# 𝑌! − 𝜇̂ ! % )

ü SSE aumenta cuando hay mayor variabilidad de los 𝑌! alrededor del hiperplano de
regresión.

ü Caso particular regresión lineal simple.

S
ü Si el hiperplano es horizontal, entonces 𝜇Y! = 𝑌,
%
𝑖 = 1: 𝑛, entonces SSR= 3
0$ − 𝑌
SS𝑅 = ∑$!"# 𝜇
Sumas cuadráticas - Propiedades

Propiedades (Tarea)
q𝑆𝑆𝑇𝑂 = 𝑆𝑆𝑅 + 𝑆𝑆𝐸
' '
q𝑆𝑆𝑇𝑂 = 𝑌 # 𝑌 − $ 𝑌# 𝐽𝑌 = 𝑌 # 𝐼$ − $ 𝐽 𝑌
q𝑆𝑆𝐸 = 𝑒 # 𝑒 = 𝑌# 𝑌 − 𝑌# 𝑋𝛽> = 𝑌# 𝐼$ − 𝐻 𝑌
' '
q𝑆𝑆𝑅 = 𝑌 # 𝑋𝛽> − $ 𝑌# 𝐽𝑌 = 𝑌 # 𝐻 − $ 𝐽 𝑌
Coeficiente de Determinación
El coeficiente de determinación representa la variabilidad de las observaciones, 𝑌! ,
explicada por el hiperplano de regresión
𝑆𝑆𝑅 𝑆𝑆𝐸
𝑅" = =1−
𝑆𝑆𝑇𝑂 𝑆𝑆𝑇𝑂

ü Notemos que si todas las observaciones están sobre el hiperplano de regresión


entonces 𝑆𝑆𝐸 = 0 y por lo tanto 𝑅 " = 1

ü Dado que 𝑆𝑆𝑅 ≤ 𝑆𝑆𝑇𝑂, entonces 0 ≤ 𝑅" ≤ 1:


ü Si 𝑅 % → 1& indica que la mayor parte de la variabilidad de las observaciones 𝑌! está siendo explicada
por el modelo de regresión.
ü Si 𝑅 % → 0' indica que la mayor parte de la variabilidad de las observaciones 𝑌! está siendo explicada
por el error.
Coeficiente de Determinación
El coeficiente de determinación representa la variabilidad de las observaciones, 𝑌! ,
explicada por el hiperplano de regresión
𝑆𝑆𝑅 𝑆𝑆𝐸
𝑅" = =1−
𝑆𝑆𝑇𝑂 𝑆𝑆𝑇𝑂

ü En el MRLN simple, es decir, 𝑝 = 1, 𝑅 " se llama coeficiente de determinación simple.

ü Si todas las observaciones están sobre la recta de regresión ajustada entonces 𝑅 # = 1.


ü Si ninguna de las observaciones está sobre la recta de regresión ajustada entonces no
siempre se cumple que 𝑅 # = 0.

ü Si 𝑅" = 0, no significa que no existe relación de algún tipo entre 𝑋 e 𝑌.


Coeficiente de Determinación
ü 𝑅" no mide que tan adecuado es el modelo de regresión lineal, es decir, es posible que
𝑅" sea grande aunque no existe relación lineal entre 𝑋 e 𝑌.
ü Si se agrega una nueva variable explicativa al modelo de regresión lineal, entonces 𝑅 "
no disminuye. No significa que el modelo que incluye la nueva variable sea mejor que
el modelo anterior.
ü Una forma de penalizar el número de variables regresoras del modelo es definiendo el
coeficiente de determinación 𝑅 " −ajustado, 𝑅:" como:
"
(𝑛 − 1) 𝑆𝑆𝐸
𝑅: = 1 −
(𝑛 − 𝑝 − 1) 𝑆𝑆𝑇𝑂
ü 𝑅(% podría ser menor aún cuando se aumenta una variable explicativa al modelo.
ü Notemos que 𝑅(% solo aumenta si MSE disminuye cuando se agrega una variable explicativa al modelo
de regresión.
Coeficiente de Correlación

ü 𝑅" y 𝑅:" sirven como criterios de comparación y selección de modelos, tema que se
verá mas adelante.
ü El coeficiente de correlación múltiple, se define como: 𝑅 = 𝑅" . Para 𝑝 = 1, 𝑟 =
± 𝑅" se llama coeficiente de correlación simple, algunas veces representado por 𝜌.
ü 𝜌 representa una medida de asociación lineal entre 𝑋 e 𝑌. Notemos que −1 ≤ 𝜌 ≤ 1.
ü Ejemplos.
Clase 11
Intervalos de confianza asociados al MRLN
Distribución Chi- Cuadrado no-central
Una variable aleatoria 𝑇 > 0 tiene distribución chi-cuadrado no-central con 𝜈 > 0 grados
"
de libertad y parámetro de no centralidad 𝛿 ≥ 0, denotada por 𝑇 ∼ 𝜒;,= , si su función de
densidad de probabilidad está dada por:
?
𝛿 ! exp −(2𝛿 + 𝑡)/2 𝑡 $)"! /"%'
𝑓> 𝑡 = o
2 $)"! /" Γ 𝑛 + 2𝑖 /2 𝑖!
!./

Propiedades
"
Si 𝑇 ∼ 𝜒;,= , entonces
%,-
@AB
#.%-
1. M> t = '%"C //%
2. E 𝑇 = 𝜈 + 2𝛿
3. Var 𝑇 = 2(𝜈 + 4𝛿)
4. Si 𝛿=0, entonces 𝑇 ∼ 𝜒;"
Distribución Chi- Cuadrado no-central
Teorema
Suponga que 𝑌 es una variable aleatoria normal multivariada, Y ∼ N$ (𝝁, 𝜎 " 𝑰𝒏 ), entonces
"
𝑌# 𝐴𝑌 ∼ 𝜒*,= , donde 𝛿 = 𝝁# 𝐴𝝁/2𝜎 " , si y solo si, A es una matriz idempotente de rango 𝑘.

Objetivo
Hallar una distribución de probabilidad asociada a 𝑆𝑆𝐸

Observaciones:
ü 𝑆𝑆𝐸 = 𝑌 # 𝐼$ − 𝐻 𝑌 y se sabe que Y/𝜎 ∼ N$ (𝑿𝜷, 𝑰𝒏 ) y además 𝐼$ − 𝐻 es una matriz
idempotente.
11E "
Luego 2%
∼ 𝜒*,= , donde los grados de libertad son dadas por:
𝑘 = rango 𝐼$ − 𝐻 = tr 𝐼$ − 𝐻
=𝑛−𝑝−1
Distribución Chi- Cuadrado no-central
Teorema
Suponga que 𝑌 es una variable aleatoria normal multivariada, Y ∼ N$ (𝝁, 𝜎 " 𝑰𝒏 ), entonces
"
𝑌# 𝐴𝑌 ∼ 𝜒*,= , donde 𝛿 = 𝝁# 𝐴𝝁/2𝜎 " , si y solo si, A es una matriz idempotente de rango 𝑘.

ü El parámetro de no centralidad es:


1 #
𝛿= 𝑋𝛽 𝐼$ − 𝐻 𝑋𝛽
2𝜎 "
'
= "2 % 𝛽# 𝑋 # 𝐼$ − 𝑋 𝑋 # 𝑋 %'
𝑋 # 𝑋𝛽
'
= "2 % 𝛽# 𝑋 # 𝑋 − 𝑋 # 𝑋 𝑋 # 𝑋 %'
𝑋# X 𝛽
1
= " 𝛽# 𝑋 # 𝑋 − 𝑋 # X 𝛽
2𝜎
=0
11E "
Luego, 2%
∼ 𝜒$%(%' .
Distribución Chi- Cuadrado no-central
Propiedades
11E
ü En consecuencia, se tienen que 𝐸 2%
= 𝑛 − 𝑝 − 1.
ü Sea 𝐻 la matriz sombrero, entonces 𝐻1 = 1, 1# 𝐻 = 1# y 𝐻𝐽 = 𝐽.

11F " ' #


ü Se puede mostrar que 2 % ∼ 𝜒(,= , donde 𝛿 = "2 % 𝛽F# 𝑋G# 𝑋G 𝛽F , y 𝛽F = 𝛽' , ⋯ , 𝛽( y 𝑋G la
matriz de variables regresoras corregidas por su media muestral:

𝑥'𝟏 − 𝑥'̅ 𝑥'𝒑 − 𝑥̅(


⋯ 𝑥 − 𝑥̅
𝑥"𝟏 − 𝑥'̅ 𝟐𝒑 (
𝑋G =
⋮ ⋱ ⋮
𝑥𝒏𝟏 − 𝑥'̅ ⋯ 𝑥𝒏𝒑 − 𝑥̅(
'
Notemos que 𝑥+̅ = $ ∑$!.' 𝑥!+ , 𝑗 = 1, ⋯ , 𝑝.
Propiedades de las sumas cuadráticas
Propiedades
ü En consecuencia, se tienen que:
11F '
𝐸 2%
= 𝑝 + 2 % 𝛽F# 𝑋G# 𝑋G 𝛽F y por lo tanto

11F '
𝐸 (
= 𝜎 " + ( 𝛽F# 𝑋G# 𝑋G 𝛽F

ü Si 𝛽F = 𝟎, entonces 𝑆𝑆𝑅/𝑝 es un estimador insesgado para 𝜎 " .


Propiedades de las sumas cuadráticas
Propiedades
ü Sea 𝑌 ∼ N$ (𝜇, 𝜎 " 𝐼$ ). Las formas cuadráticas, 𝑌 # 𝐴𝑌 y 𝑌 # 𝐵𝑌 son independientes si
𝑡𝑟 𝐴𝐵 = 0.

ü 𝑆𝑆𝐸 y 𝑆𝑆𝑅 son independientes.


Intervalos de confianza
Para hallar los intervalos de confianza de cada 𝛽+ , 𝑗 = 0, 1, ⋯ , 𝑝, es necesario hallar la
distribución de
𝛽K+ − 𝛽+
H
Var 𝛽K+
Recordar que 𝛽K+ ∼ 𝑁(𝛽+ , 𝑎++ 𝜎 " )
H
Un estimador insesgado para Var 𝛽+ = 𝑎++ 𝜎 " es Var
:11 11E
𝛽K+ = 𝑎++ 𝑀𝑆𝐸 = $%(%' .
Intervalos de confianza
𝛽K+ − 𝛽+
∼? ? ?
H
Var 𝛽K+
K1 %L1
L 11E M
"
Se sabe que ∼ 𝑁(0,1) y 2%
∼ 𝜒$%(%' y recordemos que ∼ 𝑡; .
:11 2% N2% /;

Entonces

𝛽K+ − 𝛽+
∼ 𝑡$%(%'
H
Var 𝛽K+
Intervalos de confianza
𝛽K+ − 𝛽+
∼ 𝑡$%(%'
H
Var 𝛽K+

De modo que un IC de 1 − 𝛼 100% para 𝛽+ esta dado por

𝜷 H
?𝒋 ± 𝒕𝒏%𝒑%𝟏,𝟏%𝜶/𝟐 𝐕𝐚𝐫 ?𝒋
𝜷
Donde 𝑗 = 0, 1, ⋯ , 𝑝.
Clase 12
Pruebas de hipótesis asociadas al MRLN
Tabla Anova
Pruebas de Hipótesis asociadas al MRLN

Prueba de significancia de la regresión:

¿Para que sirve esta prueba de hipótesis?

H/ ∶ 𝛽' = 𝛽" = ⋯ , 𝛽( = 0

H: ∶ 𝛽+ ≠ 0 para al menos un 𝑗

¿Qué significa que se rechace la hipótesis nula?


Pruebas de Hipótesis asociadas al MRLN

H/ ∶ 𝛽' = 𝛽" = ⋯ , 𝛽( = 0

H: ∶ 𝛽+ ≠ 0 para al menos un 𝑗

Recordemos que:
11F " ' #
2%
∼ 𝜒(,= donde 𝛿 = "2 % 𝛽F# 𝑋G# 𝑋G 𝛽F , y 𝛽F = 𝛽' , ⋯ , 𝛽( y

11E "
2%
∼ 𝜒$%(%'
Pruebas de Hipótesis asociadas al MRLN

Estadístico de prueba:

𝑆𝑆𝑅/𝑝 𝑀𝑆𝑅
𝐹/ = =
𝑆𝑆𝐸/(𝑛 − 𝑝 − 1) 𝑀𝑆𝐸

Bajo el supuesto de que la hipótesis nula es verdadera

𝐹/ ∼ 𝐹(,$%(%'
Ya que 𝑆𝑆𝑅 y 𝑆𝑆𝐸 son independientes.
Pruebas de Hipótesis asociadas al MRLN

H/ ∶ 𝛽' = 𝛽" = ⋯ , 𝛽( = 0

H: ∶ 𝛽+ ≠ 0 para al menos un 𝑗

Se rechaza la hipótesis nula si 𝐹/ > 𝐹(,$%(%','%Q


Tabla ANOVA

Fuente de Variación SS GL MS 𝐹/
Regresión SSR 𝑝 MSR MSR/MSE
Residuales SSE 𝑛−𝑝−1 MSE
Total SSTO 𝑛−1

Ejercicio: Para los datos dados calcular


• La tabla ANOVA
• 𝑅" , 𝑅:" y 𝜌
• Intervalos de confianza
Pruebas de hipótesis de los coeficientes de
regresión individuales
H/ ∶ 𝛽+ = 0

H: ∶ 𝛽+ ≠ 0
Para 𝑗 = 0, 1, ⋯ , 𝑝
Estadístico de prueba:

𝛽K+
𝑡/ = ∼ 𝑡$%(%'
H
𝑉𝑎𝑟 𝛽K+

Se rechaza la hipótesis nula si |𝑡/ | > 𝑡$%(%','%Q/"


Aplicación: Galton’s Height Data

• Description
• The table below gives data based on the famous 1885 study of Francis
Galton exploring the relationship between the heights of adult children and the
heights of their parents. Each case is an adult child, and the variables are
• Family: The family that the child belongs to, labeled from 1 to 204 and 136A
• Father: The father's height, in inches
• Mother: The mother's height, in inches
• Gender: The gender of the child, male (M) or female (F)
• Height: The height of the child, in inches
• Kids: The number of kids in the family of the child
Tomado de: https://www.randomservices.org/random/data/Galton.html
1 inches es igual a 2.54 cm.
Clase 13
Pruebas de hipótesis asociadas al MRLN
Tabla Anova
Suma de cuadrados extras
Pruebas de hipótesis
Considere la partición de 𝑿 y 𝜷 dada por:
𝜷 = 𝛽'# , 𝛽"# #
y 𝑿 = [𝑋' 𝑋" ]

Donde 𝛽' ∈ ℝ()'%R , 𝛽" ∈ ℝR , 𝑋' de dimensión 𝑛× 𝑝 + 1 − 𝑟 y 𝑋" de dimensión 𝑛×𝑟.

Para esta partición se consideran las hipótesis:

H ∶𝛽 =0
¤ / "
H: ∶ 𝛽" ≠ 0

¿Cómo se puede escribir el modelo completo en términos de la descomposición?


¿Cómo determinar la contribución de algunas
variables a la regresión?
¿Cómo evaluar la contribución de las variables explicativas 𝑋' , 𝑋" , ⋯ , 𝑋R ?

Bajo la hipótesis nula H/ ∶ 𝛽" = 0


Modelo reducido: 𝑌 ∼ N$ 𝑋' 𝛽' , 𝜎 " 𝐼$

¿Cómo estimar 𝜷𝟏 ?

La suma cuadrática de la regresión para este modelo reducido es: 𝑆𝑆𝑅 𝛽' = 𝛽>'# 𝑋'# 𝑌 −
' #
$
𝑌 𝐽𝑌 con 𝑝 − 𝑟 grados de libertad.
¿Cómo determinar la contribución de algunas
variables a la regresión?
Suma extra de cuadrados

𝑆𝑆𝑅 𝛽" |𝛽' = 𝑆𝑆𝑅 𝛽" − 𝑆𝑆𝑅 𝛽'


con 𝑝 + 1 − (𝑝 + 1 − 𝑟) grados de libertad.
ü Representa la suma cuadrática de la regresión de 𝛽" dado que 𝛽' ya esta en el modelo.
ü Mide el aumento de la suma de cuadrados de la regresión debida a las variables
explicativas 𝑋()"%R , 𝑋()S%R , ⋯ , 𝑋( a un modelo que ya contiene las variables
explicativas 𝑋' , 𝑋" , ⋯ , 𝑋()'%R .

𝑋' , 𝑋" , ⋯ , 𝑋()'%R , 𝑋()"%R , 𝑋()S%R , ⋯ , 𝑋(

𝑿𝟏 , 𝜷𝟏 𝑿𝟐 , 𝜷𝟐
¿Cómo determinar la contribución de algunas
variables a la regresión?
Estadístico de prueba
ü Bajo la hipótesis nula H/ ∶ 𝜷𝟐 = 𝟎

𝑆𝑆𝑅(𝛽" |𝛽' )/𝑟


𝐹/ = ∼ 𝐹R,$%(%'
𝑀𝑆𝐸

H/ ∶ 𝛽+ = 0
ü Para 𝑗 = 0,1,2, ⋯ , 𝑝, las pruebas individuales ‹
H: ∶ 𝛽+ ≠ 0
Pueden probarse con un estadístico 𝐹 así:

𝑆𝑆𝑅(𝛽+ |𝜷%𝒋 )/1


𝐹/ = ∼ 𝐹',$%(%'
𝑀𝑆𝐸

Donde 𝜷%𝒋 = (𝛽' , ⋯ , 𝛽+%' , 𝛽+)' , ⋯ , 𝛽( )


Tabla ANOVA

Fuente de Variación SS GL MS 𝐹/
𝑋' 𝑆𝑆𝑅(𝛽') 1 𝑀𝑆𝑅(𝛽') 𝑆𝑆𝑅(𝛽')/MSE
𝑋"|𝑋' 𝑆𝑆𝑅(𝛽"|𝛽') 1 𝑀𝑆𝑅(𝛽"|𝛽') 𝑆𝑆𝑅(𝛽"|𝛽')/MSE
𝑋S|𝑋', 𝑋" 𝑆𝑆𝑅(𝛽S|𝛽', 𝛽") 1 𝑀𝑆𝑅(𝛽S|𝛽', 𝛽") 𝑆𝑆𝑅(𝛽S|𝛽', 𝛽")/MSE
⋮ ⋮ ⋮ ⋮ ⋮
𝑋( |𝑿%𝒑 𝑆𝑆𝑅(𝛽( |𝜷%𝒑) 1 𝑀𝑆𝑅(𝛽( |𝜷%𝒑) 𝑆𝑆𝑅(𝛽( |𝜷%𝒑)/MSE

Residuales 𝑆𝑆𝐸(𝛽) 𝑛−𝑝−1 𝑀𝑆𝐸


Total 𝑆𝑆𝑇𝑂 𝑛−1
Ejemplo: Grasa corporal

El porcentaje de grasa corporal, la edad, el peso, la estatura y 10 medidas de


circunferencia (ej. Abdomen, pecho, cuello, muñeca, caderas, tobillo, rodillas, etc.)
fueron tomadas para 252 hombres.
La grasa corporal, una medida de salubridad, ha sido estimada por una técnica de pesaje
bajo el agua.
Estimar la grasa en el cuerpo en hombres mediante otras medidas usando solo una pesa
y una cinta métrica paralelamente con regresión múltiple resulta mucho mas
conveniente.
Ejemplo: Grasa corporal
http://jse.amstat.org/datasets/fat.txt

Parte de los datos


Clase 14
Clase Práctica en R – Problema de grasa corporal
Clase 15
Extrapolación Oculta en el MRLN
Extrapolación Oculta en el MRLN

Suponga que se ha estimado un MRLN


𝜇Y = 𝑋𝛽>
Considere un punto dado 𝑥/# = 𝑥/' , 𝑥/" , ⋯ , 𝑥/( correspondiente a las observaciones
de un nuevo individuo.

Al pronosticar nuevas respuestas y estimar una respuesta media para un punto dado se
debe tener cuidado para no extrapolar fuera de la región que contienen las
observaciones originales, con las que se estimó el MRLN.
El modelo puede ajustar bien en la región de los datos originales, pero no fuera de ella.
Extrapolación Oculta en el MRLN
Los niveles de la variables explicativas 𝑥!' , 𝑥!" , ⋯ , 𝑥!( , 𝑖 = 1: 𝑛 definen, conjuntamente,
la región que contiene los datos.

Considere dos variables explicativas 𝑋' y 𝑋" .


ü Considere un punto dado 𝑥/# = 𝑥/' , 𝑥/" , notemos
que está 𝑥/# dentro de los intervalos de ambas
variables explicativas, pero fuera de la región de los
datos originales.
ü Cualquier estimación de la variable respuesta que se
haga para 𝑥/# mediante el MRL representa una extrapolación
del modelo original.
Tomado de Montgomery y otros (2012)
5ta edición
Extrapolación Oculta en el MRLN

Comparando los niveles de las variables explicativas para un nuevo punto (nueva
observación) con los intervalos originales de las 𝑋 ’s no siempre llevará a una
extrapolación oculta.

Procedimiento:
1. Definir un conjunto convexo mínimo: contiene todos los 𝑛 datos originales
𝑥!' , 𝑥!" , ⋯ , 𝑥!( , 𝑖 = 1: 𝑛
𝑅𝑉𝐻 envolvente de variables explicativas (Regressor Variable Hull)
2. Comparar el punto y determinar si es una interpolación o una extrapolación
Si 𝑥/# = 𝑥/' , 𝑥/" , ⋯ , 𝑥/( cae dentro o en la frontera de la 𝑅𝑉𝐻 entonces 𝑥/# se
denomina punto de interpolación, si 𝑥/# cae por fuera de la envolvente se denomina
punto de extrapolación.
Extrapolación Oculta en el MRLN

3. Los elementos, ℎ!! , de la diagonal de la matriz sombrero 𝑯 = 𝑿 𝑿# 𝑿 %𝟏


𝑿′ se usan
para detectar la extrapolación oculta.

4. Los valores de ℎ!! dependen de:


1) La distancia euclidiana del punto 𝒙(𝒊 al centroide.
2) La densidad de los puntos en la 𝑅𝑉𝐻

5. El punto con mayor ℎ!! , llamado ℎT:, , cae en la frontera de la RVH, correspondiente
a una región del espacio 𝑿 en la que la densidad de las observaciones es relativamente
baja.

6. El conjunto 𝑥: 𝒙# 𝑿# 𝑿 %𝟏 𝒙 ≤ ℎT:, corresponde al elipsoide que encierra todos los


puntos dentro de la 𝑅𝑉𝐻.
Extrapolación Oculta en el MRLN

7. Para el punto 𝒙#𝟎 = 𝑥/' , 𝑥/" , ⋯ , 𝑥/( , su localización con respecto a la 𝑅𝑉𝐻 está
dada por

ℎ// = 𝒙#𝟎 𝑿# 𝑿 %𝟏
𝒙𝟎

8. Los puntos para los cuales ℎ// > ℎT:, , están por fuera del elipsoide que encierra la
RVH y por lo tanto son puntos de extrapolación.

9. Si ℎ// < ℎT:, , el punto está dentro del elipsoide y posiblemente dentro del RVH, y se
considera un punto de interpolación.

10. Mientras menor sea el valor de ℎ// , mas cerca esta el punto 𝒙#𝟎 del centroide del
espacio.

También podría gustarte