bert模型可以做文本主题识别吗_「NLP-NER」如何使用BERT来做命名实体识别

本文介绍了如何基于BERT模型进行命名实体识别(NER)任务,包括获取预训练模型、自定义processor、构建模型以及训练过程。通过BERT进行语义编码,结合BiLSTM+CRF进行解码,实现NER的Fine-tune。
摘要由CSDN通过智能技术生成

命名实体识别(Named Entity Recognition,NER)是NLP中一项非常基础的任务。NER是信息提取、问答系统、句法分析、机器翻译等众多NLP任务的重要基础工具。

上一期我们详细介绍NER中两种深度学习模型,LSTM+CRF和Dilated-CNN,本期我们来介绍如何基于BERT来做命名实体识别任务。

作者 | 小Dream哥

编辑 | 言有三

1 引入BERT

笔者在之前的文章中介绍过BERT,想要回顾的同学可以点击下面的链接,这里就不再介绍BERT的结构了。

鉴于BERT的强大,在下游任务中,引入BERT是很自然的想法。像谷歌这些资源丰富的大佬,帮我们预训练好了模型,并且开源出来,当然要好好利用。这里就介绍下,如何基于谷歌开源出来的BERT base模型,进行fine tune,做NER任务。

2 获取BERT预训练模型

BERT源码可以从google-research的github中获取:

https://github.com/google-research/bert

在其GitHub中,也公布了获取BERT Chinese的预训练模型,正是我们需要的,链接如下:

https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip

对下载的压缩文件进行解压,可以看到文件里有五个文件,其中bert_model.ckpt开头的文件是负责模型变量载入的,而vocab.txt是训练时中文文本采用的字典,最后bert_config.json是BERT在训练时ÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值