基本形式
给定由
d
个属性描述的示例
即:
向量形式为:
f(x)=wTx+b
其中 w=(w1;w2;…;wd)
w 和
线性回归
给定的数据集
D={(x1,y1),(x2,y2),…,(xm,ym)}
其中
xi=(xi1;xi1;…;xid),yi∈R
“线性回归”试图学得一个线性模型以尽可能准确地预测实值得输出标记。
最小二乘法
便于讨论考虑一种简单情况,输入属性的数目只有一个。
数据集为
D={(xi,yi)}mi=1
其中
xi∈R
线性回归处理
f(xi)=wxi+b
,使得
f(xi)≈yi
均方误差:
E(f;D)=1m∑i=1m(f(xi)−yi)2
让均方误差最小化
(w∗,b∗)=argmin(w,b)∑i1m(f(xi)−yi)2=argmin(w,b)∑i1m(yi−wxi−b)2
基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(least square method)
最小二乘法的目的
试图找到一条直线,使得所有样本到直线上的欧式距离之和最小。
求解
w
和
将
E(w,b)
分别对
w
和
∂E(w,b)∂w∂E(w,b)∂b=2(w∑i=1mx2i−∑i=1m(yi−b)xi)=2(mb−∑i=1m(yi−wxi))
令上面的两个等式为零:
⎧⎩⎨⎪⎪⎪⎪⎪⎪∂E(w,b)∂w∂E(w,b)∂b=0=0
于是有:
⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪w∑i=1mx2i−∑i=1m(yi−b)ximb−∑i=1m(yi−wxi)=0 (1)=0 (2)
由式
(2)
得
b=1m∑i=1m(yi−wxi) (3)
将式 (3) 代入式 (1) 得到
w∑i=1mx2i−∑i=1m[yi−1m∑j=1m(yj−wxj)]xiw∑i=1mx2i−∑i=1m[yi−1m∑j=1m(yj−wxj)]xiw∑i=1mx2i−∑i=1m[xiyi−1mxi∑j=1m(yj−wxj)]w∑i=1mx2i−∑i=1mxiyi−∑i=1m1mxi⎡⎣∑j=1myj−∑j=1mwxj⎤⎦w∑i=1mx2i−∑i=1mxiyi−∑i=1m1mxi∑j=1myj−1mw⎛⎝∑j=1mxj⎞⎠2=0=0=0=0=0
化简得到:
w⎛⎝∑i=1mx2i−w⎛⎝∑j=1mxj⎞⎠2⎞⎠www统一符号↓w=∑i=1mxiyi−∑i=1m1mxi∑j=1myj=∑i=1mxiyi−∑i=1m1mxi∑j=1myj∑i=1mx2i−1mw(∑j=1mxj)2=∑i=1mxiyi−∑i=1m1mxi∑j=1myj∑i=1mx2i−1mw(∑j=1mxj)2=∑i=1mxiyi−∑i=1m1mxi∑j=1myj∑i=1mx2i−1mw(∑j=1mxj)2=∑i=1myi(xi−x¯)∑i=1mx2i−1mw(∑i=1mxi)2
其中 x¯=1m∑i=1mxi