岭回归
岭回归(Ridge Regression),它的模型与线性回归类似,只不过是在后面加了一个约束项。
这个约束项有什么作用呢?它会使得模型中的各系数w尽可能的小,让w趋近于0。这样就会让各个特征对预测结果的影响减小,从而达到防止过拟合的目的。
这种约束我们称之为“L2正则化”。
· 实战
首先,我们还是加载岭回归模型
from sklearn.linear_model import Ridge
还是用之前的boston数据集来训练模型
ridge = Ridge()
ridge.fit(X_train,y_train)
最后来看看岭回归模型的预测精度
ridge.score(X_test,y_test)
0.7731481074884029
· 岭回归模型重要参数
岭回归由于添加了正则化项,那么该正则化项的系数alpha就是一个重要的参数。
默认alpha=1,如果增大alpha,意味着模型的“惩罚”越重,那么相应的系数w就会越小,更加趋近于0。
这样做的结果就会降低模型在训练集的性能,但会提高模型的泛化能力。与训练集想比,我们更加关注的是模型的泛化能力。
同样,我们也可以减小alpha