![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
nltk
文章平均质量分 90
BeforeEasy
这个作者很懒,什么都没留下…
展开
-
Python nltk Learning to classify texts
来自http://www.nltk.org/book/ch06.html Learning to classify texts分类:classification:就是为输入选择正确的标签分类分为两种:supervised classification 和 unsupervised classification 这次先说supervised classification:如果训练集中每个输入都有正确...原创 2018-02-10 11:21:08 · 434 阅读 · 0 评论 -
NLTK学习
nltk: natural language toolkit 是一套基于python的自然语言处理工具集安装pip install nltk在python解释器中instal nltknltk.download()可以选择下载语料库Text一个text里哪些词可以概述这个text的大致内容呢?1.1搜索concordance(“word...原创 2018-02-24 21:25:58 · 440 阅读 · 0 评论 -
【论文】A neural attention model for abstractive sentence summarization 阅读笔记
摘要:这是关注生成式摘要的问题。一般的方法是删除、改写、泛化、重新排序等方式来生成摘要。过去自动生成摘要的方法主要是语言激励限制(linguistically-inspired constraints)和输入文本的句法变换(syntactic transformations of the input text),而本文则是数据驱动的(data-driven)、将神经系统与编码器结合起来的模型。,其...原创 2018-05-17 00:57:07 · 1126 阅读 · 0 评论 -
【论文阅读】Incorporating copying mechanisim in sequence-to-sequence learning
本文提出了一种机制,将拷贝的方式结合seq2seq模型,能比较好的处理OOV问题,可以将部分实体直接复制到输出中。原创 2018-05-18 01:00:14 · 389 阅读 · 0 评论 -
【论文阅读】Get to the point :summarization with pointer-generator networks
摘要:本文在原来的神经seq2seq模型上进行了两种改变,用混合的pointer-generator网络,既可以通过pointing直接从原文中copy单词又保留了通过generator生成新词的能力;另外,用coverage来记录已经总结出的内容,防止重复。1 Introduction生成摘要一般有两种方式,extractive和abstractive,前者是直接从原文中获...原创 2018-05-18 23:27:28 · 5232 阅读 · 12 评论 -
【论文阅读】Neural Machine Translation by Jointly Learning to Align and Translate
摘要:Neural machine translation 是用encoder 将源输入编码成固定长度的向量,然后再用decoder解码成目标语言。但是使用固定长度是受限制的,本文就是要提出一种新的机制,让decode的时候可以比较动态的search 源输入。其实也就是attention机制introduction:常用的encoder-decoder模式在编码成固定长度的向量时,可能会失去一些有...原创 2018-05-19 20:59:53 · 476 阅读 · 0 评论 -
【论文】Sequence to sequence learning with neural netwoks
摘要:Deep Neural Network(DNN) 不太适合处理序列到序列的问题,这篇论文提出了一种端到端的方式处理序列到序列的问题。使用一个多层LSTM将输入转化为固定维度的向量,然后用另一个LSTM将目标向量decode成目标序列。这种方法对于长一些的序列也适用。将源输入语句的顺序倒叙输入模型中,可以更好的提高效果,比如原句是A B C 按照C B A的顺序的话,由于距离target更近,...原创 2018-05-15 16:52:30 · 448 阅读 · 1 评论 -
【论文】on the properties of neural machine translation :Encoder-decoder approaches 阅读笔记
2014年的文章,神经机器翻译相对SMT统计机器翻译而言是比较新的方法,包含一个encoder一个decoder,encoder将变长的输入序列转化为定长的表示方式,然后decoder再将其转化为正确的翻译。这篇文章是想用两种模型分析神经机器翻译的特性:RNN encoder-deocoder模型和门递归卷积神经网络(grCnov)。总的发现是,神经机器翻译在没有生词的短句翻译上表现良好,...原创 2018-05-16 14:31:07 · 2782 阅读 · 0 评论