自然语言处理
胡文祥
带着媳妇去旅行
展开
-
BERT使用详解(实战)
BERT模型,本质可以把其看做是新的word2Vec。对于现有的任务,只需把BERT的输出看做是word2vec,在其之上建立自己的模型即可了。1,下载BERTBERT-Base, Uncased: 12-layer, 768-hidden, 12-heads, 110M parametersBERT-Large, Uncased: 24-layer, 1024-hidden, 16-he...原创 2019-02-21 10:42:32 · 7855 阅读 · 0 评论 -
BERT使用心得经验分享
使用Bert有一段时间了,在项目中确实也能带来提升,这里总结下bert的使用心得。#1,资源的使用Bert在训练的过程确实很消耗资源。上面是Bert模型在12G显存的显卡上,每轮的样本数和句子长度。开始还担心Bert模型部署在客户的机器上能否正常运行。后面测试发现,如果没有太高的并发,其实在预测阶段对显存的消耗并不高,大概1-2G显存即可。#2,模型速度使用Bert模型一定要跑在GP...原创 2019-06-10 09:33:45 · 5230 阅读 · 3 评论 -
命名实体识别NER实战
1,什么是命名实体识别 命名实体识别(Named Entity Recognition,简称NER)就是从一句话中找出相关的实体,并标识出其位置,实体的定义很广,可以是人名、机构、地点,根据业务需求也可以是性别、产品型号之类的。例如:刘媛媛同学被清华大学录取。这里刘媛媛是一个人,清华大学是一个机构。NER是NLP中一项基础性关键任务,对于其他...原创 2019-06-16 18:22:14 · 822 阅读 · 0 评论