完整源码项目包获取→点击文章末尾名片!
使用HuggingFace开发的Transformers库,使用BERT模型实现中文文本分类(二分类或多分类)
首先直接利用transformer.models.bert.BertForSequenceClassification()实现文本分类
然后手动实现BertModel + FC 实现上边函数。其中可以方便的更改参数和结构
然后实验了论文中将bert最后四层进行concat再maxpooling的方法,
最后实现了bert + CNN实现文本分类
模型使用的是哈工大chinese-bert-wwm,可以完全兼容BERT
下载:
git clone https://huggingface.co/hfl/chinese-bert-wwm
结果
除了第一个实验dropout_bert是0.1,其余是0.2. 剩下参数都一样。
训练3个epoch
模型
train/val acc
val acc
test acc
链接
会用内建BertForSequenceClassification
0.982
0.950
0.950
链接
自己实现Bert+fc 一层全连接层
0.982
0.948
0.954
链接
将Bert最后四层相concat然后maxpooling
0.977
0.946
0.951
链接
BERT+CNN
0.984
0.947
0.955
链接
- 官方的transformer.models.bert.BertForSequenceClassification()就是直接使用BertModel 再接一层全连接层实现的。第二个项目是为了方便自己修改网络结构,进行手动实现。效果差不多,可以自己修改接几层线形结构,但是实验了一层就够了。
- 根据参考2的论文,将BERT最后四层的CLS向量concat然后取max pooling可以让bert在分类问题上有更好的效果。在THUNews上测试可以提高0.4%相比bert。已经很大了相比其他方法而言。
- 我一直觉得bert后面接CNN和RNN等都不好,毕竟transformer就是改善这两类模型的,再接一层也好不到哪去。如果我理解不到位可以告诉我。我还实验了bert使用前四层的输出进行concat,效果acc也能达到0.80+,层数越深效果感觉真的不明显。bert+cnn/rnn等这个模型在参考3 中两年前就有人做过实验,写出来过,他实验的效果也是不如单纯的BERT。调了调cnn的大小,其实都差不多。
标签定义:
- 0: Diagnosis(诊断)
- 1: Treatment(治疗)
- 2: Common Knowledge(常识)
- 3: Healthy lifestyle(健康生活方式)
- 4: Epidemiology(流行病学)
- 5: Other(其他)
模型的实现包括以下几个部分:
- 数据处理与加载:如何加载文本数据并进行必要的预处理。
- 模型架构:
- bert_lr:一个基于BERT的线性分类器模型。
- bert_cnn:一个基于BERT与卷积神经网络(CNN)结合的模型。
- 训练过程:如何设置训练循环、优化器和损失函数。
- 评估与预测:模型在验证集和测试集上的评估,以及如何进行推理。