多类别逻辑回归介绍
基本介绍
在统计学里,多类别逻辑回归是一个将逻辑回归一般化成多类别问题得到的分类方法。用更加专业的话来说,它就是一个用来预测一个具有类别分布的因变量不同可能结果的概率的模型。
另外,多类别逻辑回归也有很多其它的名字,包括polytomous LR,multiclass LR,softmax regression,multinomial logit,maximum entropy classifier,conditional maximum entropy model。
在多类别逻辑回归中,因变量是根据一系列自变量(就是我们所说的特征、观测变量)来预测得到的。具体来说,就是通过将自变量和相应参数进行线性组合之后,使用某种概率模型来计算预测因变量中得到某个结果的概率,而自变量对应的参数是通过训练数据计算得到的,有时我们将这些参数成为回归系数。
模型介绍
(1)线性预测器(Linear predictor)
跟其它形式的线性回归一样,多类别逻辑回归使用了一个线性预测函数来预测观测数据
i
的结果为
(2)看成是多个独立二元回归的集合
实现多类别逻辑回归模型最简单的方法是,对于所有
要注意的是,上面的公式中我们已经引入了所有可能结果所对应的回归系数集合了。
然后对公式左右两边进行指数化处理我们能够得到以下公式:
要注意的是,我们最后得到的概率必须加起来等于1,基于这个事实我们可以得到:
这样的话,我们可以把以上公式代入到之前的公式中得到:
通过这样的方法我们就能计算出所有给定未预测样本情况下得到某个结果的概率。
(3)回归系数的估计
上面篇幅所涉及到的每一个权重向量
(4)看成是一个对数线性模型
如果使用二元逻辑回归公式的对数模型的话,我们可以直接将其扩展成多类别回归模型。具体来说,就是使用线性预测器和额外的归一化因子(一个配分函数的对数形式)来对某个结果的概率的对数进行建模。形式如下:
这里用一个额外项
−lnZ
来确保所有概率能够形成一个概率分布,从而使得这些概率的和等于1。
然后将等式两边的进行指数化,我们可以得到以下公式:
由于上面说到,所有概率之和等于1,因此我们可以得到
Z
的推导公式:
通过计算上面的公式,我们得到:
综合以上的公式,我们最后可以得到每一个结果对应的概率公式:
仔细观察的话,我们可以发现,所有的概率都具有以下形式:
我们可以把具有以下形式的函数成为softmax函数:
这个函数能够将
所以,我们可以把上面的概率公式写成如下softmax函数的形式,事实上,softmax函数还能用于很多其他需要进行归一化处理的地方,如神经网络。
参考资料
多类别逻辑回归-维基百科 https://en.wikipedia.org/wiki/Multinomial_logistic_regression