03 Regressao PDF
03 Regressao PDF
03 Regressao PDF
1
1.1
1.2
n
X
i=1
P
=
b1 = 1 =
2
(xi x
)
Sxx
O termo constante (y-intercept) estimado
b0 = 0 =
1.3
yi 1
n
xi
= y 1 x
Avaliao da regresso
Estimao de 2
Resduos yi yi onde yi = 0 + 1 xi .
Soma dos quadrados dos erros (error sum of squares):
X
X
ESS =
(yi yi )2 =
[yi (0 + 1 xi )]2
yi 2 0
yi 1
A estimativa de 2
xi yi
(yi yi )
n2
Notar a perda de dois graus de liberdade por 0 e 1 j estarem definidos.
Soma dos quadrados totais (total sum of squares):
X
T SS = Syy =
(yi y)2
2
=s =
ESS
T SS
r2 modela a proporo da varincia que pode ser explicada pelo modelo de regresso linear simples. Quanto maior r2 , melhor adaptado ao modelo linear de regresso.
Inferncia sobre 1
Supondo distribuio normal, 1 dada por uma combinao linear das variveis
yi normalmente distribudas (e, portanto, uma varivel aleatria normalmente distribuda).
E(1 ) = 1
2
V ar(1 ) =
Sxx
Correlao
Coeficiente de correlao amostral
r=
onde
Sxy =
n
X
Sxy
p
Sxx
Syy
P
xi yi
i=1
P
xi yi
n
Propriedades de r
no depende de qual varivel x e qual y;
independe das unidades de medida;
1 r 1;
r = 1 indica linha reta com coeficiente angular positivo;
Cov(X, Y )
x y
P
= R = pP
(xi x
)(yi y)
p
(xi x
)2 (yi y)2
2.1
Modelo
Y = 0 + 1 X1 + 2 X2 + . . . + m Xm +
Onde
E() = 0
e
V ar() = 2
2.2
+
+
+ bm1
+
+
+ bm1
P
bm P xmi x0i
bm x1i xmi
...
...
+
+
xm1,i xmi
+ bm
P
+
bmP xmi
+ bm x1i xmi
xm1,i xmi
bm
0
1
2
..
.
m
xmi xmi
...
...
Soluo
xmi 2
=
=
P
P yi x0i
x1i yi
xmi yi
=
=
P
P yi
x1i yi
xmi yi
y0
y1
Y = y = y2
..
.
yn
O sistema a ser resolvido (sub ou super determinado)
X(nm+1) (m+11) = Y(n1)
O sistema de equaes normais
X T X = X T Y
Assim, obtemos :
= (X T X)1 X T Y
A matriz X + = (X T X)1 X T a matriz pseudo-inversa de Moore-Penrose de X.
Assim, a estimativa y para as entradas xj se escreve como:
y = 0 + 1 x1 + 2 x2 + . . . + m xm
Avaliao da regresso mltipla
A varincia estimada para a estimativa y
2 =
SQE
n (m + 1)
Exemplo
(n 1)R2 m
n (m + 1)
"
1 ...
1 x1
x1 . . .
..
..
.
z1 . . . 3n .
z1
..
.
Multiplicando as matrizes:
P
P1
P xi 2
P xi P(xi )
zi
xi zi
0
1
1
= x1
2 31
z1
n3
...
...
. . . 3n
y0
y1
..
.
n1
P
P
0
P yi
P zi
1 =
P yi xi
P xi zi2
yi zi
(zi )
2
l11 2
l11 l12
l11 l13
l11 0
0
l11 l12 l13
LLT = l12 l22 0 0 l22 l23 = l11 l12
l12 2 + l22 2
l12 l13 + l22 l23
l13 l23 l33
0
0 l33
l11 l13 l12 l13 + l22 l23 l13 2 + l23 2 + l33 2
Basta ento igualar cada elemento dessa matriz com a matriz a se decompor e
determinar um a um os coeficientes lij . Como a matriz L triangular, muito fcil
resolver o sistema linear por substituio.
Na prtica:
Construo a matriz X:
1
1
X=
x1
x2
..
.
xn
z1
z2
zn
2.3
2.4
Complexidade
Regresso Polinomial
y(x, w) = 0 + 1 x + 2 x + . . . + m x
M
X
j=0
j x j
0
1
= .
..
M
Funo de erro a minimizar
f () =
N
1X
[y(xn , ) tn ]2
2 n=1
=
=
=
P
P yi
xi yi
P
2 = s2 =
(yi y)2
ESS
n (m + 1)
R2 = 1
2
Rajustado
=1
ESS
T SS
n1
ESS
n (m + 1) T SS
xi m yi
10
11
3.1
Validao cruzada.
Aproximao regularizada
f() =
[y(xn , ) tn ]2 + kk2
2 n=1
2
onde kk2 = T = 0 2 + . . . + M 2 .
onde pesa a importncia da regularidade da curva em relao ao erro contra os
valores amostrais.
12
4.1
Cdigo MATLAB
13
poly=flipud(beta);
p=polyval(poly,xt);
figure;
plot(xt,ht,b-,x,h,ro,xt,p,g:);
xlabel(x);
ylabel(y);
title([aproximacao polinomial M=,num2str(M)]);
end
%% obter aproximacao regularizada
M=9;
lambda=0.001;
x_mat=[];
for grau=0:M
x_mat=[x_mat,x.^grau];
end
xtx=x_mat*x_mat;
beta=inv(xtx+lambda*eye(size(xtx)))*(x_mat*h);
%%plotar aproximacao
poly=flipud(beta);
p=polyval(poly,xt);
figure;
plot(xt,ht,b-,x,h,ro,xt,p,g:);
xlabel(x);
ylabel(y);
title([aproximacao regularizada M=,num2str(M), lambda=,num2str(lambda)]);
14
15
16
17
5
5.1
18
5.2
Heteroscedasticidade
X (yi xi )2
i2
1
2 .