Bootstrap

机器学习-- >监督学习-- >SVM

本篇博文将详细总结机器学习里面一个非常重要但又非常难以理解的一个算法模型SVM。SVM我之前一直没有弄的很明白,在总结本篇博文时,一定要将其弄得清清楚楚。

将沿着以下几个主题来进行总结:

线性可分支持向量机(硬间隔最大化hard margin maximization)

定义

这里写图片描述

上图就形象的说明什么是线性可分支持向量机,利用SVM对样本进行分类得到分割超平面(实线)和边界的两条虚线,并且分割后可以使得没有样本点落在两条虚线之内,那么这就是线性可分的。我们把落在边界,也就是两条虚线之上的样本点称为支持向量(support vector)

给定线性可分训练数据集,通过 间隔最大化得到的分离超平面为 :

y ( x ) = W T Φ ( x ) + b y(x) = W^T\Phi (x) +b y(x)=WTΦ(x)+b

相应的分类决策函数, f ( x ) = s i g n ( W T Φ ( x ) + b ) f(x) = sign(W^T\Phi (x)+b) f(x)=sign(WTΦ(x)+b)该决策函数称为线性可分支持向量机。

Φ ( x ) \Phi (x) Φ(x)是某个确定的特征空间转换函数(即核函数),它的作用是将 x x x映射到(更高的)维度。在线性可分支持向量机中 Φ ( x ) = x \Phi (x)=x Φ(x)=x,那么如何选取这个分割超平面呢?

分割超平面的思考

假设给定一个特征空间上的训练数据集 T = ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) T={(x_1,y_1), (x_2,y_2),...,(x_N,y_N)} T=(x1,y1),(x2,y2),...,(xN,yN),其中 x i ∈ R n , y i ∈ + 1 , − 1 , i = 1 , 2 , . . . , N x_i \in R_n,y_i\in {+1, -1}, i=1,2,...,N xiRn,yi+1,1,i=1,2,...,N x i x_i xi 为第 i i i 个实例(若 n > 1 , x i n>1, x_i n>1,xi 为向量);

y i {y_i} yi x i {x_i} xi的类标记;当 y i = + 1 y_i=+1 yi=+1时,称 x i x_i xi 为正例;当 y i = − 1 y_i=-1 yi=1 时,称 x i x_i xi 为负例; ( x i , y i ) (x_i,y_i) (xi,yi) 称为一个样本点。

这里写图片描述

上图中,存在多条分割线能将正负样本分类,那么哪一条是最好的分割线呢?直观上看应该找最中间的那条直线,因为该超平面对训练样本的局部扰动的容忍性最好。换言之,这个划分超平面所产生的分类结果是最鲁棒的,对未见实例的泛化性最强。

我们先对这条分割线进行向量化的表示,例如 y = 2 x − 1 y=2x-1 y=2x1可以表示成 y ( X ) = y − 2 x + 1 y(X)=y-2x+1 y(X)=y2x+1,其中 x , y x,y x,y 是自变量(特征), y ( X ) y(X) y(X) 是对应的计算结果,大于 0 0 0或者小于 0 0 0 。可以进行向量化的表示: y ( X ) = W → ⋅ X → + b y(X) =\overrightarrow{W}\cdot \overrightarrow{X} + b y(X)=W X +b那么这里 W → = ( 1 , − 2 ) ; X → = ( y , x ) \overrightarrow{W} = (1, -2); \overrightarrow{X}=(y, x) W =(1,2);X =(y,x)

整理符号
分割平面: y ( x ) = w T Φ ( x ) + b y(x) = w^T\Phi (x) +b y(x)=wTΦ(x)+b

训练集: x 1 , x 2 , . . . , x n x_1, x_2,...,x_n x1,x2,...,xn

目标值: y 1 , y 2 , . . . , y n y_1, y_2,...,y_n y1,y2,...,yn

新数据的分类: s i g n ( y ( x ) ) sign(y(x)) sign(y(x))

由此可推出:

{ y ( x i ) > 0 ⇔ y i = + 1 y ( x i ) < 0 ⇔ y i = − 1 ⇒ y i ⋅ y ( x i ) > 0 \left\{\begin{matrix} y(x_i) >0 \Leftrightarrow y_i = +1& \\ y(x_i) < 0 \Leftrightarrow y_i = -1& \end{matrix}\right. \Rightarrow y_i \cdot y(x_i) > 0 {y(xi)>0yi=+1y(xi)<0yi=1yiy(xi)>0

注: y ( x i ) y(x_i) y(xi)表示代入分割超平面方程所得的结果; y i y_i yi表示样本所对应的类别标签(这里是以二分类为例,正类用+1表示,负类用-1表示)

函数距离

在超平面 W → ⋅ X → + b = 0 \overrightarrow{W}\cdot \overrightarrow{X} + b = 0 W X +b=0确定的情况下,通过观察 W → ⋅ X → + b \overrightarrow{W}\cdot \overrightarrow{X} + b W X +b 符号与类标记 y i y_i yi的符号是否一致可判断分类是否正确,所以,可以用 y i ⋅ ( W → ⋅ X → + b ) y_i \cdot (\overrightarrow{W}\cdot \overrightarrow{X} + b) yi(W X +b)的正负性来判定或表示分类的正确性。正号即分类正确,反正分类结果错误。于此,我们便引出了函数距离(functional margin)的概念。

γ = y i ( W → Φ ( x ) + b ) = y i ⋅ y i ( x i ) \gamma = y_i(\overrightarrow{W}\Phi (x) +b) = y_i \cdot y_i(x_i) γ=yi(W Φ(x)+b)=yiyi(xi)

我们知道一条直线或者一个分割超平面,**其同步的放大或缩小所有参数,其直线或面(经过的点)并不发生改变。**显然当成倍的变化 W , b W, b W,b 时,函数距离也在成倍变化,不合理,故这样定义距离还远远不够。

几何距离

W , b W, b W,b 等比例缩放,则 γ \gamma γ 值同样缩放,从而:

y i ⋅ y ( x i ) ∥ W ∥ = y i ( W → Φ ( x ) + b ) ∥ W ∥ \frac{y_i \cdot y(x_i)}{\parallel W \parallel } = \frac{y_i(\overrightarrow{W}\Phi (x) +b)}{\parallel W \parallel } Wyiy(xi)=Wyi(W Φ(x)+b)

显然此时无论参数 W , b W, b W,b 如何变化,其确定点到直线的距离都不发生改变。

最大间隔分离超平面

我们的目的就是要在所有可能的 W , b W,b W,b 中,其中每一个可能的 w , b w,b w,b都能确定一条分割超平面,计算出每个分割超平面距离正负样本的最短距离,然后在这些最短距离中找出最大距离 对应的那个 w , b w,b w,b。那么这个 w , b w,b w,b 所确定的超平面也就是最优分割超平面。上面讲的最大最小距离指的都是几何距离。

故目标函数:

这里写图片描述

这里写图片描述

建立目标函数:
分割平面:

y = w T Φ ( x ) + b y = w^T\Phi (x) +b y=wTΦ(x)+b

总可以通过等比例缩放 w , b w,b wb 的方法,使得两类点的函数距离 都满足 ∣ y ∣ ≥ 1 | y |≥1 y1

约束条件

y i ⋅ ( w T Φ ( x ) + b ) > = 1 y_i \cdot (w^T\Phi (x) +b) >= 1 yi(wTΦ(x)+b)>=1

原目标函数:
这里写图片描述

新目标函数:
这里写图片描述

这里写图片描述

拉格朗日乘子法:

这里写图片描述

原问题是极小极大问题:
这里写图片描述

原始问题的对偶问题,是极大极小问题:
这里写图片描述

关于最小最大问题转成其对偶形式最大最小问题,里面涉及到凸优化相关知识,这里我们不过多探讨凸优化,只讲下其相关结论。

凸优化相关结论

在多重等式或不等式约束下:

这里写图片描述

原问题:
约束条件如果是大于等于,前面添加负号总能变换成小于等于号。

这里写图片描述

广义的拉格朗日:

这里写图片描述

min-max问题:

这里写图片描述
注:上面先求最大值,然后在最大值 [ f ( w ) , 无 穷 ] {[ f(w),无穷 ]} [f(w),] 里面求最小值。其推导过程证明了拉格朗日的min-max问题最后结果和原问题在约束条件下的最优结果是一致的。

原始问题(min-max问题):

这里写图片描述

对偶问题(max-min问题):
这里写图片描述
显然,固定 w w w,那么 m a x − m i n max-min maxmin就是关于 α , β \alpha, \beta α,β的函数,

这里写图片描述
这个 L ( α , β ) L(\alpha, \beta) L(α,β)即为对偶函数。

若没有下确界,定义:
这里写图片描述

根据定义,若有下确界,显然有:对 ∀ α > 0 , ∀ β \forall \alpha >0 , \forall \beta α>0,β,若原优化问题有最优值 p ∗ = m i n f ( w ) p*=min f(w) p=minf(w) 在约束条件 ( g < = 0 , h = 0 ) (g<=0,h=0) g<=0,h=0下,则在上面的约束条件下(g<=0,h=0)得
这里写图片描述应该是小于等于

那么就可得:
这里写图片描述

证明:
这里写图片描述

这里写图片描述
注:如果一个函数f1小于另外一个函数f2,那么就意味着函数f1在定义域内的所有取值(不论是最大取值还是最小取值)都小于f2在定义域内的任意取值。

即:
这里写图片描述

强对偶条件
若要对偶函数的最大值即为原问题的最小值,即要上面等号成立,考察需要满足的条件:
我们假定 w ∗ w^* w为原问题的最优解,那么也就是其拉个朗日 m i n − m a x min-max minmax 的最优解。

这里写图片描述

显然要使上式成立,需要满足以下几个条件:
这里写图片描述

这就是所谓的KKT条件,满足KKT条件,则min-max问题等价与max-min问题

SVM的拉格朗日函数

这里写图片描述

其中 − ∑ i = 1 n α i ( y i ( w T ⋅ Φ ( x i ) + b ) − 1 ) < = 0 -\sum_{i=1}^{n} \alpha_i (y_i (w^T \cdot \Phi(x_i)+b) - 1) <= 0 i=1nαi(yi(wTΦ(xi)+b)1)<=0

将拉格朗日函数 L ( w , b , a ) L(w,b,a) L(w,b,a) 分别对 w , b w,b wb求偏导 并令其为 0 0 0
这里写图片描述
***上面所求出的w即为kkt条件中的 KaTeX parse error: Undefined control sequence: \* at position 3: W^\̲*̲***。

计算拉格朗日函数的对偶函数

这里写图片描述

继续求 m i n w , b L ( w , b , α ) min_{w,b} L(w, b, \alpha) minw,bL(w,b,α) α \alpha α的极大

这里写图片描述

显然所求出来的w的最优解 KaTeX parse error: Undefined control sequence: \* at position 3: w^\̲*̲ 满足KKT条件。min-max问题等价于max-min问题

构造并求解约束最优化问题

这里写图片描述
上式中 i , j i,j i,j 为样本编号, y i , y j y_i, y_j yi,yj为对应样本的类别标签。取+1或者-1。 x i , x j x_i, x_j xi,xj为对应样本的特征向量, ( Φ ( x i ) ⋅ Φ ( x j ) ) (\Phi(x_i) \cdot \Phi(x_j)) (Φ(xi)Φ(xj))表示向量的点乘,通过转置最后点乘结果为一个实数。一个样本对应一个参数 α \alpha α

将样本点代入到上式中,然后分别对每一个 α i \alpha_i αi求偏导使其为 0 0 0,并且在上述约束条件下,就能求出每个 α i \alpha_i αi的最优解 α ∗ \alpha^* α

为什么叫“Support Vector”?

下面的 x x x 可以理解为上面的 Φ ( x ) \Phi(x) Φ(x),只是没有做核函数映射而已。

这里写图片描述

上面我们已经对w,b求偏导得出:
这里写图片描述

所以只要求出每个样本对应的 α i \alpha_i αi,那么最后的支持向量,分割超平面就能确定了,我们上面求w的公式也能看出 α i \alpha_i αi为零的样本肯定不在支持向量上,因为α=0,那么这个样本点根本没有参与w,b的创建,α!=0的样本点参与了w,b的创建,故α!=0的样本点是支持向量。

求得分离超平面
这里写图片描述

分类决策函数
这里写图片描述

线性支持向量机 (软间隔最大化soft margin maximization )

如何定义软间隔目标函数

  • 不一定分类完全正确的超平面就是最好的。(硬间隔SVM可能会过拟合,泛化性能差。)
  • 样本数据本身***线性不可分***。

若数据线性不可分,则增加***松弛因子*** ε i > = 0 \varepsilon_i>=0 εi>=0使函数间隔加上松弛变量大于等于1。这样,约束条件变成

这里写图片描述

目标函数:当然我们也不希望 ε i \varepsilon_i εi 太大,所以在原始的目标函数后加上一项,可以理解成正则项。

这里写图片描述

在上式中 ε i \varepsilon_i εi 的系数 C C C 如果取得非常大,那么即使 ε i \varepsilon_i εi 很小乘上 C C C 也是很大。此时目标函数不会是最优,那么就意味着当 C C C 取很大时,只有 ε i = 0 \varepsilon_i =0 εi=0 时才能取得最优。即当 $c -> \infty $时,就退化成了线性可分的 SVM。

C其实就是调节对错误的容忍程度,C越大,对错误的容忍度越小,那么过渡带就会越窄。C越小,对错误的容忍度越大,那么过渡带就会越宽。(宽就意味着有泛化能力)

线性SVM的目标函数

这里写图片描述

带松弛因子的SVM拉格朗日函数

拉格朗日函数: ε i > 0 \varepsilon_i>0 εi>0,我们在前面加上负号使其小于0。
这里写图片描述

对w,b, ξ求偏导得
这里写图片描述

将三式带入L中,得到:

这里写图片描述

对上式求关于 α \alpha α的极大,得到:
这里写图片描述
从上面推导出的 0 < = α < = C 0<= \alpha <= C 0<=α<=C,结合之前的讨论当 C C C 很大时,容忍度越低,那么退化为线性可分SVM,因为此时不等式就变成 0 < = α 0 <= \alpha 0<=α,而在线性可分SVM中的 α > = 0 \alpha >= 0 α>=0,正好对应上了。

整理,得到对偶问题:

这里写图片描述

构造并求解约束最优化问题
这里写图片描述

求得最优解 α ∗ \alpha^* α

将算出的 α ∗ \alpha^* α代入以下公式:
这里写图片描述

注意:计算 b b b时,需要使用满足条件 0 < α j < C 0<\alpha_j< C 0<αj<C 的向量,实践中往往取支持向量的所有值取平均,作为b

求得分离超平面
这里写图片描述

分类决策函数
这里写图片描述

损失函数

在软间隔的SVM上,处于过渡带以内的样本的 α = C α=C α=C ,支持向量的 0 < = α < = C 0<=α<=C 0<=α<=C,而在过渡带以外的样本的 α = 0 α=0 α=0

在过渡带以内的样本是有损失的,虽然过渡带以内的有些样本可能并没有分错。那么这个损失有多大呢?
这里写图片描述

支持向量到分割超平面距离为1,在过渡带以外的样本是没有损失的,在过渡带上的样本(也即是支持向量)损失为0,在过渡带以内的样本的损失就是松弛因子 ε \varepsilon ε,这个 ε \varepsilon ε可以大于1,因为样本可能会被分错分到分割超平面另一边。那么SVM的损失函数图像即为:

这里写图片描述
注:横轴表示样本 y i ⋅ ( w T Φ ( x ) + b ) y_i \cdot (w^T\Phi (x) +b) yi(wTΦ(x)+b)值,纵轴表示损失 ε \varepsilon ε,显然当距离大于1是时损失 ε \varepsilon ε=0,当距离等于1时 ε \varepsilon ε正好为0,当样本距离分割超平面小于1时损失 ε \varepsilon ε>0。当样本距离分割超平面距离为0时,也即是正好在分割线上时,损失就为1,所以SVM的损失函数图像过(1,0)和(0,1)点。SVM损失又称hinge损失。

即我们优化的目标是:

这里写图片描述

我们再回头看上面的目标函数:

这里写图片描述

这个目标函数的第二项不正是损失函数吗?

所以我们可以将这个目标函数看成这样:
这里写图片描述

故SVM可以看作hinge损失加上一个L2正则项。

核函数

在上面的线性可分支持向量机和线性支持向量机中,我们是把 Φ ( x ) = x \Phi(x) = x Φ(x)=x没有做任何高维的映射,所以说是线性的。这里我们开始使用核函数来进行计算分类。

可以使用核函数,将原始输入空间映射到新 的特征空间,从而,使得原本线性不可分的 样本可能在核空间可分。

这里写图片描述

在实际应用中,往往依赖先验领域知识/交叉 验证等方案才能选择有效的核函数。
没有更多先验信息,则使用高斯核函数。

线性核函数

这里写图片描述

   # 分类器
    ## "ovr"也即是one vs rest,每次选取数据样本中的某一类,剩余的其他类作为一类进行分类
    ## 'ovo'也即是one vs one,每选择其中的两类进行分类
    clf = svm.SVC(C=0.1, kernel='linear', decision_function_shape='ovr')
    # clf = svm.SVC(C=0.8, kernel='rbf', gamma=20, decision_function_shape='ovr')
    clf.fit(x_train, y_train.ravel())

    # 准确率
    print clf.score(x_train, y_train)  # 精度
    print '训练集准确率:', accuracy_score(y_train, clf.predict(x_train))
    print clf.score(x_test, y_test)
    print '测试集准确率:', accuracy_score(y_test, clf.predict(x_test))

    # decision_function
    print 'decision_function:\n', clf.decision_function(x_train)
    print '\npredict:\n', clf.predict(x_train)

多项式核函数

例如:
这里写图片描述

那么可推得:
这里写图片描述

这里我们假设X是三维的,那么可得:
这里写图片描述

同理可以计算出这里写图片描述,那么这里可得这里写图片描述

同理,当多项式核为

这里写图片描述

那么可得:
这里写图片描述

若X是三维的可得:
这里写图片描述

clf=svm.SVC(C=0.1,kernel='poly',degree=3,decision_function_shape='ovr')

核函数映射图

这里写图片描述

数据样本在低维不可分,将其映射到高维空间变得可分。

高斯核

高斯核函数里面的参数gamma,gamma越大衰减的越快,离某一个样本最近的样本的相似度都会很低,因此使得分类的精度提高。如果gamma趋近于无穷大,那么就是一个1近邻。经过合适的调参,SVM高斯核函数一定能在训练集上将数据百分百分对。

高斯核是无穷维的
我们利用泰勒展式:

这里写图片描述

这里写图片描述

那么可得:

这里写图片描述

clf = svm.SVC(C=0.8, kernel='rbf', gamma=20, decision_function_shape='ovr')

原始的X是有限维度的,当用高斯核函数映射时,将其映射为n维,也就是无穷维度。

处理不均衡样本问题

设置参数class_weight对少数类的样本赋予较高权重,给予较大的重视。

 # 分类器
    clfs = [svm.SVC(C=1, kernel='linear'),
            ## 参数class_weight用来处理不均衡数据样本
           svm.SVC(C=1, kernel='linear', class_weight={-1: 1, 1: 50}),## 负例给权重1,正例给权重50,以下同理
           svm.SVC(C=0.8, kernel='rbf', gamma=0.5, class_weight={-1: 1, 1: 2}),
           svm.SVC(C=0.8, kernel='rbf', gamma=0.5, class_weight={-1: 1, 1: 10})]
;