自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 【学习笔记】Transformer

1.Transform简介Transformer中抛弃了传统的CNN和RNN,整个网络结构完全是由Attention机制组成。更准确地讲,Transformer由且仅由self-Attenion和Feed Forward Neural Network组成。一个基于Transformer的可训练的神经网络可以通过堆叠Transformer的形式进行搭建,作者的实验是通过搭建编码器和解码器各6层,总共12层的Encoder-Decoder,并在机器翻译中取得了BLEU值得新高。2.Transform结构

2020-11-01 21:15:13 621

原创 【期刊投稿要求】《数据分析与知识发现》(Data Analysis and Knowledge Discovery)

期刊首页1.论文写作与审核要求2.支撑数据提交要求本刊要求作者提供支撑论文结论的两类数据1 )必选:内在数据 (Integral Content ):同行评议专家和本领域研究人员检验研究结论所必须的科学数据,但因为技术、内容或版面组织、呈现平台等原因没有纳入论文正文。2 )可选:附加数据 (Additional Content ):有助于本领域科研究人员和其他读者进一步理解研究结论的数据。提交数据的格式提交及存储方式作者需在正文结尾处以数据清单的形式明确列出所提交的每个数据集 ,并提供

2020-10-29 22:50:20 2742

原创 【学习笔记】中文NER词汇增强方法总结 (从Lattice LSTM到FLAT)

1.对于中文NER,什么是「词汇增强」?虽然基于字符的NER系统通常好于基于词汇(经过分词)的方法,但基于字符的NER没有利用词汇信息,而词汇边界对于实体边界通常起着至关重要的作用。如何在基于字符的NER系统中引入词汇信息,是近年来NER的一个研究重点。本文将这种引入词汇的方法称之为「词汇增强」,以表达引入词汇信息可以增强NER性能。从另一个角度看,由于NER标注数据资源的稀缺,BERT等预训练语言模型在一些NER任务上表现不佳。特别是在一些中文NER任务上,词汇增强的方法会好于或逼近BERT的性能。

2020-10-26 20:25:13 1442

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除