PLS Español
PLS Español
PLS Español
Presentación
Motivación:
Al precedir y a partir de x, los componentes más “activos” de X pueden no
ser los más importantes para la predicción. Descomposición basada en la
covarianza Σyx en vez de en Σx (PCR) o Σ[x y ] (TLS).
Objetivos:
Comprender la motivación, planteamiento y alguna de las soluciones al
problema PLS.
Contenidos:
Preliminares y planteamiento del problema. Preparación de datos. Regresión PLS con
información ortonormalizada. Regresión SIMPLS (idea básica). Discusión y
conclusiones.
2]
[ A. Sala AI2 -DISA. Universitat Politecnica de Valencia
Mı́nimos Cuadrados Parciales (PLS)
Ideas preliminares:
Tenemos un conjunto de datos x, para predecir y a partir de ellos.
Tenemos N muestras (y , x) que constan de ymy ×1 datos a precedir
junto a xmx ×1 datos conocidos de entrada al modelo.
Preparación de datos
Para que el ajuste por mı́nimos cuadrados y las conclusiones sobre el SVD
de H tengan sentido, en un entorno multivariable, hace falta un
escalado/preprocesado previo.
Escalado de las variables y a predecir: Escalar los elementos de y para
que error de ajuste en todos los elementos tenga significado
“comparable” en la aplicación: mezclar errores de estimación en “metros” con
otros errores en “milivoltios” requiere ponderación.
Nota: Si los datos x, y fueran vectores fila podrı́an transponerse, o bien, cambiar todas las fórmulas de estas transparencias
a su transpuesta.
[ 6] A. Sala AI2 -DISA. Universitat Politecnica de Valencia
Mı́nimos Cuadrados Parciales (PLS)
Hay otras variantes en literatura. Por ejemplo, SIMPLS (el que implementa
Matlab en su comando plsregress).
SIMPLS busca maximizar qiT Σyx ri , i = 1, . . . , mx sujeto a:
1 qiT qi = 1, riT ri = 1
2 riT Σx rj = 0 si i 6= j, esto es, ortogonalidad (≈ no correlación) entre
ti := Xri y tj := Xrj .
La mejor predicción del componente escalar ν := qiT y dado el componente escalar
τ := riT x es σi · τ , donde σi es el mayor valor singular de una secuencia de matrices
S0 = Σ Tyx , S1 = P0 S0 , Sj = Pj−1 Sj−1 , siendo Pj matrices de proyección ortogonal sobre
cierto subespacio.
Detalles en (https://doi.org/10.1016/0169-7439(93)85002-X).
[ 10] A. Sala AI2 -DISA. Universitat Politecnica de Valencia
Mı́nimos Cuadrados Parciales (PLS)
Comparación
Comparación (2)
A partir de: covarianza=desv.tı́p(x)*correlación*desv.tı́p(y)
Conclusiones