![](https://img-blog.csdnimg.cn/20190922180355998.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
NLP
NLP学习笔记
毅强
自然语言处理界的文青程序员
展开
-
Joint entity recognition and relation extraction as a multi-head selection problem [论文精度&代码讲解]
中文信息学会和百度等举办的2020语言与智能技术竞赛,我对关系抽取赛道的题目比较感兴趣,报名并参加了该赛题,查阅相关资料,笔者决定基础模型为Model(Bert+Multi-Headselection),一是之前对bert有些学习和利用,二是利用Multi-Headselection范式解决在一个Text中,抽取多实体多关系问题,此博客记录一下比赛研究过程,在关系抽取领域学习研究不到一...原创 2020-04-08 19:36:55 · 3848 阅读 · 5 评论 -
Jointly Extracting Multiple Triplets with Multilayer Translation Constraints [论文研读]
一般的关系抽取方法是首先进行命名实体识别(NER),然后在进行关系分类(RC)输出抽取出的三元组(SPO)。在AAAI上的这篇论文《Jointly Extracting Multiple Triplets with Multilayer Translation Constraints》就提出了一个新的解决关系抽取的模型,可以联合命名实体识别和关系分类进行关系抽取,这样就避免了分步联合抽取的错误蔓...原创 2020-03-26 17:43:58 · 1386 阅读 · 3 评论 -
EMNLP2019关系抽取论文集合(含链接)
Relation ExtractionEMNLP 2019Henry Rosales-Méndez, Aidan Hogan and Barbara Poblete.2019. Fine-Grained Evaluation for Entity Linking. In EMNLP2019.Arpita Roy, Youngja Park, Taesung Lee and Shim...原创 2020-02-28 16:50:00 · 1464 阅读 · 1 评论 -
Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks [论文研读]
《Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks》是Zeng在2014年那篇经典论文之后的有益著作,这篇论文提出PCNN方法,将卷积网络特征提取应用于远距离监督,而且还引入多示例学习方法。摘要文章在摘要部分主要提出了两个问题,主要是在训练数据少的情况下,如何更...原创 2020-02-23 17:17:07 · 611 阅读 · 0 评论 -
Attention Is All You Need 论文研读
《Attention Is All You Need》是2017年由Google提出的论文,论文重点描述了transformer结构及原理。transformer在机器翻译等众多NLP领域取得了很大的进步,这次学习《Attention Is All You Need目的是为了搞懂transformer,BERT预训练模型原理及细节。论文链接:https://arxiv.org/abs/17...原创 2020-02-17 11:30:53 · 1700 阅读 · 0 评论 -
Enriching Pre-trained Language Model with Entity Information for Relation Classification 论文研读
论文地址:https://arxiv.org/pdf/1905.08284.pdf摘要关系分类是一项重要的自然语言处理任务用以抽取两实体的关系,最先进的关系分类方法主要是基于卷积网络(CNN)或者循环网络(RNN)。最近,预训练模型BERT成功应用于诸多NLP领域的分类和序列标注问题。关系分类与以上问题的不同之处在于它依赖句子和两个实体的信息。在此论文中,提出了一种既用BERT...原创 2020-02-08 17:30:01 · 968 阅读 · 0 评论 -
利用jieba实现分词、高频词统计、词性标注
小编学习nlp的起步阶段,今天利用python语言中的jieba包,实现了中文的分词、高频词统计、词性标注。我知道对于原理理解的重要性,迫不及待地把实现的过程记录在博客中,算法原理问题过后进行补充。1、jieba分词Jieba提供了三种分词模式:精确模式:视图将句子切分的最精确。全模式:把句子句子中,所有可以成词的词语都扫出来,速度快,但是不能解决歧义的问题。模糊模式:在精确模式...原创 2019-09-21 21:49:26 · 4751 阅读 · 0 评论 -
jieba分词基础
这篇博客写一些结巴分词的基础操作,参考网站http://github.com/fxsjy/jieba/blob/master/README.md1.分词我们对“张三是云计算领域的专家”这句话进行分词,如何让分词达到理想化,就需要自定义词典的引用,并且定期维护词典。#jieba精确分词import jiebasent = "张三是云计算领域的专家"seg = jieba.cut(...原创 2019-09-25 16:26:01 · 831 阅读 · 0 评论