详述BERT fine-tune 中文分类实战及预测

本文详细介绍了如何使用BERT进行中文文本分类的模型微调和预测。内容包括环境配置、数据集准备、代码修改、模型训练以及使用训练后的模型进行预测,涉及数据格式、处理类的定制和环境变量的设置等关键步骤。
摘要由CSDN通过智能技术生成

这几天在研究bert fine-tune相关的知识,现在基本熟悉了,也踩了一些坑,记录一下,一是总结,二是备忘。

bert 的 finetune 主要存在两类应用场景:分类和阅读理解。因分类较为容易获得样本,以下以分类为例,做模型微调:

环境:python 3.6
tensorflow:1.12(必须>=1.11)

完成中文分类需要有一、bert官方开源的代码,二、bert开源的预训练的中文模型chinese_L-12_H-768_A-12,三、中文分类数据,数据格式为(类别\t句子)

1、模型与代码下载:
1.1 首先clone 官方代码,地址如下:
git clone https://github.com/google-research/bert.git
cd bert
随便放在哪个目录都可以

1.2 bert开源的预训练的中文模型chinese_L-12_H-768_A-12
地址:https://github.com/google-research/bert
在这里插入图片描述
2、数据集准备
数据获取地址:data
train.tsv 训练集
dev.tsv 验证集
test.tsv 测试集
第一列为 label,第二列为具体内容,tab 分隔。因模型本身在字符级别做处理,因而无需分词。
tsv文件是类似于csv,只不过分割符号有所区别csv为,,而tsv为\t,即tab键。
注意:链接data中 test为空,我这样处理的:从train.tsv文件中从3个类别分别剪切出来10条数据,放到test里面了,将原来的类型标签全部改成了unknow,然后将后缀改成.tsv,一定要剪切,不然训练集包含了测试集,模型效果就特别好

  • 11
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值