基于BERT的中文命名实体识别

该博客介绍了如何基于BERT进行中文命名实体识别(NER)任务的微调,通过在预训练模型上进行fine-tune,实现了在验证集和测试集上的F-1值显著提升,显示出BERT在中文NER任务上的优秀性能和泛化能力。
摘要由CSDN通过智能技术生成

Bert-ChineseNER

Introduction

BERT

简要地介绍一下BERT,网上对于BERT的介绍已经满天飞了。BERT是谷歌在2018年提出的一个预训练语言模型,不同于传统的语言模型使用自回归的方式对文本进行语言模型的学习,BERT提出了一种新颖的Mask Language Model,结合谷歌在2017年提出的Transformer网络结构,对文本进行“真正”的双向建模。

Fine-tune

BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。

Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。

Results

模型结果

引入bert之后,可以看到在验证集上的F-1值在训练了16个epoch时就已经达到了94.87,并在测试集上达到了

评论 21
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值