- 博客(7)
- 收藏
- 关注
原创 Some papers about NLP
Attention1、Neural Machine Translation by Jointly Learning to Align and Translate2、Effective Approaches to Attention-based Neural Machine Translation3、ABCNN: Attention-Based Convolutional Neural Net...
2019-01-14 19:38:44 900
原创 Protege、D2RQ、JENA与SPARQL
引言关于的知识图谱的相关概念在从语义网络到知识图谱这篇博文中有简单的描述,下面介绍一下在知识图谱实际使用中的一些工具。数据来源于The Movie Database (TMDb)抓取的电影数据,统计如下:演员数量:505人电影数量:4518部电影类型:19类人物与电影的关系:14451电影与类型的关系:7898演员的基本信息包括:姓名、英文名、出生日期、死亡日期、出生地、...
2019-01-25 19:12:58 7111 7
原创 从语义网络到知识图谱
引言知识图谱,目前来说也没有一个特别明确的定义,“Exploiting Linked Data and Knowledge Graphs in Large Organisations”书中的描述如下:A knowledge graph consists of a set of interconnected typed entities and their attributes.在我的另一...
2019-01-24 17:07:16 8414
原创 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
引言Google在2018年发出来的论文,原文地址:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
2019-01-15 19:29:32 3436
转载 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
原文:张俊林–从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史引言Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得。那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角度看一般,创新不算大。但是架不住效果太好了,基本刷新了很多NLP的任务的最好性能,有些任务还被刷爆...
2019-01-11 19:55:50 823
原创 Attention Is All You Need
引言google 在2017年发布的一篇论文,即是transformer,原文地址:Attention Is All You Need
2019-01-07 21:59:16 2645
原创 ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs
引言Wenpeng Yin等发表在arXiv上的论文,原文地址:地址这应该是第一篇提出Attention用于CNN的文章,主要用来解决句子对的问题,作者在answer selection (AS),、paraphrase identification(PI)、textual entailment (TE)三个任务上进行实验,均取得了不错的结果。模型...
2019-01-02 17:36:34 1990
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人