自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 命名实体识别NER实战

1,什么是命名实体识别    命名实体识别(Named Entity Recognition,简称NER)就是从一句话中找出相关的实体,并标识出其位置,实体的定义很广,可以是人名、机构、地点,根据业务需求也可以是性别、产品型号之类的。例如:刘媛媛同学被清华大学录取。这里刘媛媛是一个人,清华大学是一个机构。NER是NLP中一项基础性关键任务,对于其他...

2019-06-16 18:22:14 814

原创 BERT使用心得经验分享

使用Bert有一段时间了,在项目中确实也能带来提升,这里总结下bert的使用心得。#1,资源的使用Bert在训练的过程确实很消耗资源。上面是Bert模型在12G显存的显卡上,每轮的样本数和句子长度。开始还担心Bert模型部署在客户的机器上能否正常运行。后面测试发现,如果没有太高的并发,其实在预测阶段对显存的消耗并不高,大概1-2G显存即可。#2,模型速度使用Bert模型一定要跑在GP...

2019-06-10 09:33:45 5089 3

原创 BERT使用详解(实战)

BERT模型,本质可以把其看做是新的word2Vec。对于现有的任务,只需把BERT的输出看做是word2vec,在其之上建立自己的模型即可了。1,下载BERTBERT-Base, Uncased: 12-layer, 768-hidden, 12-heads, 110M parametersBERT-Large, Uncased: 24-layer, 1024-hidden, 16-he...

2019-02-21 10:42:32 7839

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除