NLP
Loki97
这个作者很懒,什么都没留下…
展开
-
最好的入门自然语言处理(NLP)的资源清单
最好的入门自然语言处理(NLP)的资源清单 Melanie Tosik目前就职于旅游搜索公司WayBlazer,她的工作内容是通过自然语言请求来生产个性化旅游推荐路线。回顾她的学习历程,她为期望入门自然语言处理的初学者列出了一份学习资源清单。 目录: · 在线课程 · 图书馆和开放资源 · 活跃的博客 · 书籍 · 数...转载 2018-08-10 11:31:37 · 5067 阅读 · 0 评论 -
【深度学习NLP论文笔记】《Understanding Neural Networks through Representation Erasure》
Abstract提出一种一般方法来分析神经网络的决策:清除一些部分的表示(various parts of the representation),例如输入的单词向量的维度(input word-vector dimensions)、中间隐藏单元(intermediate hidden units)、输入单词(input words),来看看这样会产生什么影响。评估清除(erasure...原创 2018-08-18 19:33:10 · 1104 阅读 · 0 评论 -
【深度学习NLP论文笔记】《Visualizing and Understanding Neural Models in NLP》
1 Introduction神经网络对于NLP任务的可解释性很差。深度学习模型主要是基于word embedding词嵌入(比如low-dimensional,continuous,real-valued vector)。在本文中,我们使用传统方法,比如representation plotting,并使用一些简单策略来评估一个神经元(neural unit)对于语义构建(meaning ...原创 2018-08-18 20:48:23 · 1916 阅读 · 0 评论 -
【深度学习NLP论文笔记】《Deep Text Classification Can be Fooled》
Abstract当前存在的加扰算法不能直接应用于文本上。三种对文本的加扰策略:插入(insertion)、修改(modification)、移除(removal)。本文针对DNN文本分类器(DNN-based text classifiers)进行fool。Introduction文本分析很重要:垃圾网站、钓鱼网站(spam or phishing webpage)的检测依靠文本分...原创 2018-08-20 21:33:19 · 1301 阅读 · 1 评论 -
【深度学习NLP论文笔记】《Towards Crafting Text Adversarial Samples》
Abstract文本fool的方法:修改原始样本:删除或替换一些重要的单词,或引入新的单词。我们的算法最适用于在每个类的例子中有子类别的数据集。基于情绪分析的IMDB电影评论数据集和性别检测的Twitter数据集的实验结果显示了我们所提出的方法的有效性。1.introduction使用Word2Vec方法进行数据预处理和特征提取。但是Word2Vec的离散特征使得将向量映射到单词变...原创 2018-08-20 21:41:34 · 1881 阅读 · 0 评论 -
一文详解 Word2vec 之 Skip-Gram 模型(结构篇)
一文详解 Word2vec 之 Skip-Gram 模型(结构篇)导语:这可能是关于 Skip-Gram 模型最详细的讲解。这是一个关于 Skip-Gram 模型的系列教程,依次分为结构、训练和实现三个部分,本文为第一部分:结构篇,后面两个部分我们将陆续发布,敬请期待。原文作者天雨粟,原载于作者知乎专栏这次的分享主要是对Word2Vec模型的两篇英文文档的翻译、理解和整合,这两篇英文文...转载 2018-08-23 17:42:58 · 1326 阅读 · 0 评论 -
【深度学习NLP论文笔记】《Interpretable Adversarial Perturbation in Input Embedding Space for Text》
Abstract在CV领域,常常用对抗训练(adversarial training)来产生扰动并提高模型鲁棒性,但如果把这种方法直接应用在词嵌入空间会丢失可解释性(interpretability)。本文提出的方法就是对嵌入空间的单词做扰动方向上的约束(restrict the direction of perturbation),从而保留了可解释性。1 Introduction...原创 2018-08-21 20:42:02 · 2239 阅读 · 0 评论