论文
洛洛洛洛洛洛洛
这个作者很懒,什么都没留下…
展开
-
论文阅读笔记:DOER: Dual Cross-Shared RNN for Aspect Term-Polarity Co-Extraction
摘要:本文通过提出Dual crOss-sharEd RNN framework (DOER)模型来在同时解决属性级实体抽取及情感分类任务,这一模型采用两个RNN分别处理两个任务,并采用一个cross-shared 单元将两部分的隐藏层表示进行互相增强。并采用两个辅助任务:实体长度预测和输入单词情感极性预测作为辅助任务与模型进行联合训练,实验结果在三个数据集上有SOTA的表现。1.简介:...原创 2019-11-27 21:13:56 · 894 阅读 · 0 评论 -
论文阅读笔记:A Unified Model for Opinion Target Extraction and Target Sentiment Prediction
本文发表于AAAI2019,是由腾讯AI Lab主导,与香港中文大学合作完成,该研究通过改进基本的序列标注模型来提升端到端抽取用户评论中的意见目标和相应的情感倾向的性能。摘要 基于意见目标的情感分析(TBSA)涉及到了意见目标抽取和目标情感预测两个子任务。目前的工作主要是将他们作为两个单独的任务来研究,对于实际应用的贡献是非常有限的。这篇文章的目标在于以一种端到端的方式来解决完整...原创 2019-10-18 20:25:44 · 2321 阅读 · 0 评论 -
论文阅读笔记:A Multi-sentiment-resource Enhanced Attention Network for Sentiment Classification
这是发表在ACL2018的文章。摘要:情感资源包括情感词典、否定词和程度副词,这在传统的情感分类中具有非常重要的作用。然而,在深度学习模型中(例如CNN,LSTM),情感资源却没有得到有效的利用。于是,文章提出了Multi-sentiment-resource Enhanced Attention Network(MEAN),以在句子级情感分类中通过注意力机制将以上三种情感知识整合到深...原创 2019-09-20 21:26:26 · 1077 阅读 · 2 评论 -
论文阅读笔记:ERNIE: Enhanced Language Representation with Informative Entities
摘要:自然语言表征模型最近受到非常多的关注,很多研究者将其视为 NLP 最重要的研究方向之一。例如在大规模语料库上预训练的 BERT,它可以从纯文本中很好地捕捉丰富的语义模式,经过微调后可以持续改善不同 NLP 任务的性能。因此,我们获取 BERT 隐藏层表征后,可用于提升自己任务的性能。但是,已有的预训练语言模型很少考虑知识信息,具体而言即知识图谱(knowledge graphs,KG...转载 2019-07-15 11:51:35 · 404 阅读 · 0 评论 -
论文阅读笔记:Context-aware Embedding for Targeted Aspect-based Sentiment Analysis
目录问题描述: 方法:输入: 稀疏系数向量:重新构建目标向量:微调方面向量:实验结果:可视化分析:总结问题描述: 这是一篇来自哈尔滨工业大学深圳院校2019年在ACL发表的文章,应用于Targeted aspect-based sentiment analysis(TABSA),这一问题是根据句子中的具体的target,识别其属...原创 2019-06-28 15:30:11 · 2489 阅读 · 4 评论 -
论文阅读笔记:Glyce: Glyph-vectors for Chinese Character Representations
香侬科技提出了一种基于中文字形的向量表示形式:Glyce,基于Glyce的模型在13个中文NLP任务上达到了SOTA.摘要: 直觉上,字形信息对于中文这样的表意文字上进行的nlp任务会有很多帮助,但是由于1)象形文字缺乏丰富的象形证据,2)现有的cv模型缺乏针对文字数据的泛化能力,所以,有效的利用这部分信息的方法还有待探索。 在这篇文章中,我们通过提出Glyce:针对中文字符的...原创 2019-06-10 16:58:45 · 765 阅读 · 0 评论 -
论文阅读笔记:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
目录摘要1.引言2.相关工作2.1Feature-based Approaches2.2Fine-tuning方法3 BERT3.1 Model Architecture3.2 Input Representation3.3 Pre-training Tasks3.3.1 Task #1: Masked LM3.3.2 Task #2: Next S...原创 2019-05-23 19:13:54 · 6813 阅读 · 0 评论 -
论文阅读笔记:A Novel Capsule Based Hybrid Neural Network for Sentiment Classification
摘要:该文章是北京工业大学发表在IEEE上的文章,主要针对短文本的情感分类,由于短文本有限的上下文信息,所以对于短文本的情感分类有一定的难度,该文章利用双向GRU获取单词之间的长距离依赖,然后利用capsule网络结构获取更丰富的文本信息,提高输出向量的表达能力,该文章提出的方法在两个短文本数据集上进行了实验。模型: 该文章主要的模块为实线的三个模块,将输入文本转换为词向量后,输入...原创 2019-04-28 17:17:44 · 626 阅读 · 0 评论 -
论文阅读笔记:Transfer Learning for Deep Sentiment Analysis
摘要:为了解决情感分类中数据不足的问题,本文通过一个专用的内存模块引入外部一般线索(本文称为情感嵌入),这部分信息来自于其他的数据,将这部分信息加入到神经网络的处理过程中,可以获得更好的泛化能力。本实验在七种语言的数据集上都取得了很好的效果。Approach:1 Sentiment Embedding Computation 该文章提出word2vec以及glo ve这些常用的生成...原创 2019-04-17 20:54:46 · 811 阅读 · 0 评论 -
论文阅读笔记:Cross-Domain Sentiment Classification with Target Domain Specific Information
本文是复旦大学在第56届ACL会议上发表的文章。主要目的是通过原域大量带有标签的数据及目标域少量带有标签的数据的训练,对目标域大量无标签数据进行分类。原文链接摘要: 现有的跨领域情感分类大多集中在提取域不变的特征,而域特定信息对于情感分类也是十分重要的,因此本文提出一种方法,同时抽取原域和目标域的域特定、域不变信息,然后利用原域和目标域的域不变信息训练一个域不变分...原创 2019-03-25 22:56:31 · 3167 阅读 · 0 评论 -
论文阅读笔记:Universal Language Model Fine-tuning for Text Classification
原文链接本文是由2018ACL上收录的一篇论文。摘要 归纳迁移学习在计算机视觉有很成熟的应用,但是在NLP任务中,对于一个特定任务还需要从头进行训练,因此本文想要提出一个通用语言微调模型,可以对任意一个NLP任务都适用。本文应用的模型为三层AWD-LSTM模型,首先在一个规模比较大的语料库上进行训练,然后针对特定任务进行参数微调,最后在对特定任务进行分类器训练。本文提出的模型在六...原创 2019-03-16 13:36:02 · 384 阅读 · 0 评论 -
论文阅读笔记:Transformation Networks for Target-Oriented Sentiment Classification
原文链接本文是香港中文大学和腾讯AI实验室2018年在ACL上发表的论文摘要 本文模型为三层结构,最下面一层为双向LSTM,最上一层为CNN,替代基于注意机制的RNN 去提取最重要的分类特征,由于 CNN 很难捕捉目标实体信息,所以本文提出了一个特征变换组件来将实体信息引入到单词的语义表示当中。但这个特征变换过程可能会使上下文信息丢失。所以本文又提出了一种“上下文保留”机制,可将带有上下文...原创 2019-03-15 22:33:30 · 1542 阅读 · 0 评论