自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

原创 【论文笔记】Effective Approaches to Attention-based Neural Machine Translation

论文链接   本文针对NMT任务使用的attention机制提出两种结构,global attention将attention作用于全部输入序列,local attention每个时间步将attention作用于输入序列的不同子集。前者被称为soft attention,其原理和论文1一样,后者是hard attention和soft attention的结合,该文通过context vector...

2018-05-31 13:49:53 1317 1

原创 【论文笔记】SPPnet

论文链接               CNN模型在识别图片前需要将图片预处理(如裁剪,扭曲)成同样大小尺寸,流程如下图所示。这一步骤不仅繁琐而且由于尺寸变化可能会影响识别精度。        事实上卷积层、池化层、激活层可以适应任意尺寸图片,但用于分类的全连接层需要固定尺寸的输入。为了解决这一问题,SPPnet在特征提取层和全连接层中间添加了金字塔池化层 (SPP layer),使得任意尺寸的图片...

2018-05-31 10:55:57 223

原创 【论文笔记】neural machine translation by jointly learning to align and translate

1.neural machine translation by jointly learning to align and translate   这篇文章是将attention机制应用于机器翻译上,普通的seq2seq模型要将输入文本的信息编码至固定长度的隐向量中,当面对长文本时会损失许多信息,那么就要利用attention对输入文本的不同片段根据其重要程度分配不同的权重,使得信息被更有效地编码...

2018-05-30 14:31:24 1172 1

原创 【Tensorflow】文本自编码器

使用文本序列的word2vec词向量作为seq2seq模型的输入和输出,训练得到中间层的文本特征表示,可进一步进行分类任务等,encoder和decoder都使用LSTM。import tensorflow as tfimport numpy as npimport refrom gensim.models import Word2Vecimport pandas as pdimport...

2018-05-30 09:57:18 1760 5

原创 【论文笔记】Bag of Tricks for Efficient Text Classification

    这篇文章写的是Facebook推出的FastText,能够快速在海量文本数据上进行分类任务和表示学习,可以用一个普通的多线程CPU在十分钟内训练百万级的语料,一分钟内将五十万文本分类到三十万个类别中。    最近几年深度学习在NLP任务上虽取得了显著地成就,但此类模型无论是训练还是测试阶段都因过长的时间消耗很难应用在更大的语料数据上。与此同时一些简单的线性模型在保持速度效率的同时也有不俗的...

2018-05-25 10:22:33 1103

原创 【论文笔记】GloVe: Global Vectors forWord Representation

摘要    词向量的成功捕捉到了细粒度的语义信息和语法规则,本文提出的方法融合了主流模型的优点:全局矩阵分解(LSA)和局部内容窗口(Word2vec),充分利用统计信息使用词共现矩阵中频率非零的元素来训练模型。引言    使用向量空间来表示自然语言可以做为许多NLP任务(文本分类,信息检索......)的特征输入,主流的两种方法是基于全局矩阵分解的LSA和局部窗口信息的Word2vec。LSA虽...

2018-05-22 21:06:38 2389 1

原创 使用gensim的doc2vec生成文档向量

doc2vec是word2vec的延伸,同样使用无监督方法利用上下文对词语和文档向量进行训练。doc2vec的输入是TaggedDocument向量,它包括word_list和tags两部分,word_list是文档的分词列表,如['火箭','是','总冠军',]。tags是文档的标签列表。比如可以用如下代码将自己的数据读入内存:def get_dataset(): data = pd.r...

2018-05-09 16:15:52 4673

原创 【论文笔记】文本分类(text classification)论文整理

Distributed Representations of Sentences and Documents这篇文章借鉴了word2vec的方法来训练长文本向量,如句子,段落,文档。首先随机初始化文本向量和文本中词的词向量,利用skip-gram和CBOW模型(在文中称为PV_DM和PV_DBOW模型)一起训练词向量和文本向量。论文链接:https://cs.stanford.edu/~quocl...

2018-05-04 16:49:23 3050

原创 【论文笔记】命名实体识别(NER)论文整理

Bidirectional LSTM-CRF Models for Sequence Tagging论文链接:https://arxiv.org/abs/1508.01991这篇文章比较了NLP几个经典任务:词性标注,命名实体识别上的模型,包括CRF,LSTM,Bi-LSTM,LSTM-CRF,Bi-LSTM-CRF,Bi-LSTM-CRF在这几个任务上取得了最好的准确度和健壮性,对词语特征工程的...

2018-05-03 10:23:27 4101

提示
确定要删除当前文章?
取消 删除