自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

lpty的博客

走进科学

  • 博客(7)
  • 收藏
  • 关注

原创 Some papers about NLP

Attention1、Neural Machine Translation by Jointly Learning to Align and Translate2、Effective Approaches to Attention-based Neural Machine Translation3、ABCNN: Attention-Based Convolutional Neural Net...

2019-01-14 19:38:44 900

原创 Protege、D2RQ、JENA与SPARQL

引言关于的知识图谱的相关概念在从语义网络到知识图谱这篇博文中有简单的描述,下面介绍一下在知识图谱实际使用中的一些工具。数据来源于The Movie Database (TMDb)抓取的电影数据,统计如下:演员数量:505人电影数量:4518部电影类型:19类人物与电影的关系:14451电影与类型的关系:7898演员的基本信息包括:姓名、英文名、出生日期、死亡日期、出生地、...

2019-01-25 19:12:58 7111 7

原创 从语义网络到知识图谱

引言知识图谱,目前来说也没有一个特别明确的定义,“Exploiting Linked Data and Knowledge Graphs in Large Organisations”书中的描述如下:A knowledge graph consists of a set of interconnected typed entities and their attributes.在我的另一...

2019-01-24 17:07:16 8414

原创 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

引言Google在2018年发出来的论文,原文地址:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

2019-01-15 19:29:32 3436

转载 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史

原文:张俊林–从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史引言Bert最近很火,应该是最近最火爆的AI进展,网上的评价很高,那么Bert值得这么高的评价吗?我个人判断是值得。那为什么会有这么高的评价呢?是因为它有重大的理论或者模型创新吗?其实并没有,从模型创新角度看一般,创新不算大。但是架不住效果太好了,基本刷新了很多NLP的任务的最好性能,有些任务还被刷爆...

2019-01-11 19:55:50 823

原创 Attention Is All You Need

引言google 在2017年发布的一篇论文,即是transformer,原文地址:Attention Is All You Need

2019-01-07 21:59:16 2645

原创 ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs

引言Wenpeng Yin等发表在arXiv上的论文,原文地址:地址这应该是第一篇提出Attention用于CNN的文章,主要用来解决句子对的问题,作者在answer selection (AS),、paraphrase identification(PI)、textual entailment (TE)三个任务上进行实验,均取得了不错的结果。模型...

2019-01-02 17:36:34 1990

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除