Bootstrap

机器学习笔记(V)线性模型(I)一维最小二乘法

基本形式

给定由 d 个属性描述的示例x=(x1;x2;;xd)其中 xi x 在第 i 个属性上的取值,线性模型试图学得一个线性的组合来进行预测的函数
即:

f(x)=w1x1+w2x2++wdxd+b

向量形式为:

f(x)=wTx+b

其中 w=(w1;w2;;wd)
w b学得之后模型就得以确定

线性回归

给定的数据集 D={(x1,y1),(x2,y2),,(xm,ym)}
其中 xi=(xi1;xi1;;xid),yiR
“线性回归”试图学得一个线性模型以尽可能准确地预测实值得输出标记。

最小二乘法

便于讨论考虑一种简单情况,输入属性的数目只有一个。
数据集为 D={(xi,yi)}mi=1 其中 xiR
线性回归处理
f(xi)=wxi+b ,使得 f(xi)yi

均方误差:

E(f;D)=1mi=1m(f(xi)yi)2

让均方误差最小化

(w,b)=argmin(w,b)i1m(f(xi)yi)2=argmin(w,b)i1m(yiwxib)2

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(least square method)

最小二乘法的目的

试图找到一条直线,使得所有样本到直线上的欧式距离之和最小。
求解 w b使得 E(w,b)=mi=1(yiwxib)2 最小化的过程,称为线性回归模型的最小二乘“参数估计”。
E(w,b) 分别对 w b求导,得到

E(w,b)wE(w,b)b=2(wi=1mx2ii=1m(yib)xi)=2(mbi=1m(yiwxi))

令上面的两个等式为零:
E(w,b)wE(w,b)b=0=0

于是有:
wi=1mx2ii=1m(yib)ximbi=1m(yiwxi)=0 (1)=0 (2)

由式 (2)

b=1mi=1m(yiwxi) (3)

将式 (3) 代入式 (1) 得到
wi=1mx2ii=1m[yi1mj=1m(yjwxj)]xiwi=1mx2ii=1m[yi1mj=1m(yjwxj)]xiwi=1mx2ii=1m[xiyi1mxij=1m(yjwxj)]wi=1mx2ii=1mxiyii=1m1mxij=1myjj=1mwxjwi=1mx2ii=1mxiyii=1m1mxij=1myj1mwj=1mxj2=0=0=0=0=0

化简得到:
wi=1mx2iwj=1mxj2wwww=i=1mxiyii=1m1mxij=1myj=i=1mxiyii=1m1mxij=1myji=1mx2i1mw(j=1mxj)2=i=1mxiyii=1m1mxij=1myji=1mx2i1mw(j=1mxj)2=i=1mxiyii=1m1mxij=1myji=1mx2i1mw(j=1mxj)2=i=1myi(xix¯)i=1mx2i1mw(i=1mxi)2

其中 x¯=1mi=1mxi

;