NLP
文章平均质量分 91
下一步
长期关注NLPMLCLinux等
展开
-
【每周一文】Supervised Sequence Labelling with Recurrent Neural Networks
概述 序列化标注是NLP领域非常常见的问题,很多问题都可以归结为序列化标注问题,例如分类可以看做多对一的标注;词性标注属于一对一的标注;机器翻译属于多对多的标注。 深度学习在NLP上取得不错的效果,常用的模型有前向神经网络(FNN)、卷积神经网络(CNN)、循环神经网络(RNN、BIRNN)、LSTM、关注度模型(AM)等,对于特定任务还有相关变形 本文主要科普下各个模型的结构原创 2016-02-16 23:47:55 · 5819 阅读 · 0 评论 -
【每周一文】Natural Language Processing (almost) From Scratch
概述本文介绍了一个统一的神经网络架构用于解决自然语言处理各种的各种任务,主要是序列标注任务,包括词性标注(POS)、词语组块分析(Chunking)、命名实体识别(NER)以及语义角色标注(SRL)等。本文主要介绍如何构建这个统一的神经网络以及如何运用一些技巧去提高效果,结论是不需要特殊构建特征工程就可以得到State-of-art结果。统一标识为方面后续介绍,提前介绍各类标识。原创 2016-02-16 23:46:43 · 5841 阅读 · 1 评论 -
【每周一文】A Primer On Neural Network Models for NLP
概述 该文概要介绍了一些神经网络模型如何应用到NLP相关的任务上,对于想使用神经网络技术来解决NLP相关任务的初学者非常有帮助,可以当做一个综述文章来读。主要介绍以下几个主要知识点: 1. 神经网络问题建模和求解 2. NLP问题建模 3. NLP中应用的神经网络结构 4. 总结神经网络问题建模用机器学习模型解决实际问题时,需要解决三个主要问题输入输出原创 2016-11-20 11:20:18 · 1799 阅读 · 0 评论 -
【每周一文】Convolutional Neural Networks And Application for NLP
概述 卷积神经网络的提出主要是应用于图像识别,由于其效果比较显著逐渐扩展到语音识别和自然语言处理等领域。本文主要介绍 1. 卷积的概念 2. 卷积神经网络 3. 卷积神经网络在NLP中的应用 4. 总结卷积一维(1D)卷积根据维基百科上的定义,一维卷积定义如下:f(x)∗g(x)=∫∞−∞f(τ)g(x−τ)dτ f(x)*g(x)=\int_{-原创 2016-11-20 11:21:43 · 1472 阅读 · 0 评论 -
【每周一文】Convolutional Neural Network for text/sentence classification(2016)
概述卷积神经网络(CNN)相比于基于词袋模型的DNN有以下优点: 1. 能够捕获局部的位置信息 2. 能够方便的将不定长的输入转换成定长输入接入到DNN网络中 3. 相比于RNN模型计算复杂度低,在很多任务中取得不错的效果。在自然语言处理(NLP)的分类任务中,文本分类或者句子分类也能表现比较好的效果,甚至达到state of art效果。另外如果借助于预训练的词向量、字向量或者原创 2016-11-20 11:23:01 · 6057 阅读 · 0 评论 -
【每周一文】Sequence to Sequence Learning with Neural Networks(2014)
概述DNN已经被成功用于多种AI任务,并取得很多可喜的成绩,例如语音识别、图片分类等。然而它们都不能处理序列到序列的任务,该文提出了一个端到端的(End To End)模型处理序列到序列的任务。 本文主要介绍: 1.Seq2Seq任务描述 2.Seq2Seq模型介绍任务描述在自然语言处理中有很多任务都可以归约为序列到序列的任务,例如: 1.机器翻译问题 2.语音识原创 2016-11-20 11:24:03 · 3651 阅读 · 0 评论