论文笔记
文章平均质量分 93
Lawe
有问题可以直接评论,欢迎指正
展开
-
【论文笔记】Neural Architectures for Named Entity Recognition
该paper发于NAACL2016,主要对比了BiLSTM-CRF和Stack-LSTM两种模型用于命名实体识别,本次笔记只记录第一种模型;并且采用词级向量和字符级向量结合的方式,在不使用外部的特定领域知识等,仅仅使用了少量监督语料的特征以及未标注语料情况下就可以达到领先水平。原创 2017-08-22 13:27:01 · 2651 阅读 · 0 评论 -
【论文笔记】Information Extraction over Structured Data: Question Answering with Freebase
该文章发于ACL 2014,作者提出了一个基于Freebase knowledge base,结合web-scale语料,通过信息抽取的方法进行KBQA,并在当时取得了比前人方法都要好的效果。原创 2017-10-31 00:09:17 · 2711 阅读 · 1 评论 -
【论文笔记】Semantic Parsing on Freebase from Question-Answer Pairs
该文章发于EMNLP 2013,作者提出训练一个语义解析器(semantic parser),基于该语义解析器进行KBQA(knowledge base question answering),具体步骤是语义解析器把输入问题解析为logical forms,再基于这种结构化的表达从知识库(knowledge base)中寻找答案。原创 2017-10-29 15:04:29 · 3402 阅读 · 0 评论 -
【论文笔记】Question Answering with Subgraph Embeddings
该文章发于EMNLP 2014,作者提出了一个基于Freebase,根据问题中的主题词在知识库中确定候选答案,构建出一个模型来学习问题和候选答案的representation,然后通过这些representation来计算问题和候选答案的相关度来选出正确答案,在不适用词表、规则、句法和依存树解析等条件下,超越了当时最好的结果。原创 2017-11-01 01:01:26 · 2556 阅读 · 2 评论 -
【论文笔记】Character-Aware Neural Language Models
该文章发于AAAI 2016,作者提出了仅建立在字符输入,预测在词水平上进行的一个神经语言模型(NLM)。当输入一个LSTM循环神经网络语言模型(RNN-LM)时,该模型在字符上启用了一个卷积神经网络(CNN),让该CNN的输出通过一个 Highway Network,使得效果得到进一步提升。该模型非常适用于形态丰富的语言上,因为其可以获取到丰富的语义和拼写信息。原创 2017-10-24 00:10:55 · 2899 阅读 · 1 评论 -
【论文笔记】An End-to-End Model for QA over KBs with Cross-Attention Combining Global Knowledge
该文章发于ACL 2017,在Knowledge base-based question answering (KB-QA)上,作者针对于前人工作中存在没有充分考虑候选答案的相关信息来训练question representation的问题,提出了一个使用Cross-Attention机制的神经网络模型来针对于候选答案的不同方面信息来训练模型;并且训练知识库的全局信息学习,在一定程度原创 2017-11-09 00:25:03 · 3652 阅读 · 7 评论 -
【论文笔记】Question Answering over Freebase with Multi-Column Convolutional Neural Networks
该文章发于ACL 2015,作者提出了一个基于Freebase,使用multi-column convolutional neural networks(MCCNNs)的自动问答模型,分别从答案路径, 答案背景信息, 以及答案类型 来理解问题,并学习它们的分布式表示(distributed representations),在不使用任何手动特征及词表等条件下,取得了很好地效果。原创 2017-11-04 23:57:58 · 2940 阅读 · 0 评论 -
【论文笔记】Neural Relation Extraction with Multi-lingual Attention
该paper发于ACL2017上,作者主要基于关系事实通常在各种语言中存在某种模式表达,并且不同语言之间的模式是不同的这两个动机,针对于当前存在的单语言关系抽取的方法,从而存在忽略不同语言中存在大量信息的问题,作者提出了一个基于多语言交叉Attention机制实体关系抽取方法,可以充分不同语言中的关系模式,从而增强关系模式的学习,文中提出的Multi-lingual原创 2017-10-18 22:34:22 · 1634 阅读 · 0 评论 -
【论文笔记】Relation Classification via Multi-Level Attention CNNs
该文发于ACL2016上,主要提出了一个基于多Attention机制CNN网络的实体关系抽取方法,其中Attention机制主要是:Input Attention Mechanism和Convolutional Max-pooling Attention Mechanism。在不依赖于外部先验知识和特征的情况下,就已经能够得到高于当前最好方法的结果。原创 2017-08-18 00:02:29 · 2823 阅读 · 3 评论 -
【论文笔记】Adversarial Multi-task Learning for Text Classification
该文章发于ACL 2017,针对于已有的大多数神经网络多任务学习模型进行文本分类,存在的共享特征(shared features)可能再次包含特定任务特征(task-specific features)或者含有来自其他任务带来的噪声问题,作者提出了一个对抗多任务学习模型,缓解了共享特征空间和特定任务特征空间相互干扰的问题,作者在16个任务上进行实验证明其模型的有效性。原创 2017-12-19 13:33:43 · 4902 阅读 · 3 评论