NLP
可乐司机
这个作者很懒,什么都没留下…
展开
-
AAAI 2021 北京预讲会有哪些值得关注的任务和技术?
转载自:https://mp.weixin.qq.com/s/tF2CjnT8PbNw8IXP29Reyg文末送福利 | AAAI 2021北京预讲会总共有31篇论文,完整列表如下:1. Neural Sentence Ordering Based on Constraint Graphs 周昆 中国人民大学2. Revisiting iterative back-translation from the perspective of compositional ...转载 2020-12-21 09:21:56 · 2082 阅读 · 1 评论 -
免费知识哪里来——Arxiv使用指南
转载自:http://insights.thoughtworks.cn/how-to-use-arxiv/如果你非常确定自己想要找什么,比如知道论文的名字(算法的名字)或者作者的名字,直接去Google Scholar上搜索是最快的。然而如果你并不是很确定自己想要什么,只是想要看看某个领域的最新发展,知道大家都在干什么,然而却发现Google Scholar给你的结果多半不靠谱,请读下去。...转载 2018-03-14 11:26:09 · 11909 阅读 · 7 评论 -
如何获取最新的深度学习资源
转载自:https://zhuanlan.zhihu.com/p/24887133很多刚入门深度学习的朋友,往往不知道该如何获取最新的深度学习资源,包括资讯,论文,学习资料等等,有问题也不知道该与谁交流。因此这里分享一些相关途径,希望对大家的学习有所帮助。微信公众号有很多和深度学习相关的公众号,对学术相关进展的跟进都很及时,可以考虑有选择的关注:机器之心智能立方:paperweekly哈工大sci...转载 2018-03-14 11:17:14 · 1215 阅读 · 0 评论 -
gensim教程
1. gensim tutorial2. gensim API原创 2018-03-14 10:05:20 · 497 阅读 · 0 评论 -
如何跟踪 arXiv 更新
1. arXiv订阅2. arXiv第三方查找3. 论文订阅的工具4. 利用RSS跟踪arXiv更新原创 2018-03-12 20:41:45 · 5703 阅读 · 0 评论 -
Google Word2Vec代码运行
代码原地址:https://code.google.com/archive/p/word2vec/代码Github地址:https://github.com/tmikolov/word2vecLinux 运行代码1. make -f makefile2. chmod +x *.sh3. ./demo-word.sh4. ./demo-phrases.sh...原创 2018-03-11 21:44:13 · 1370 阅读 · 0 评论 -
Word2vec Training
1. Google's trained Word2Vec model in Python (Pre-train model)2. Training Word2Vec Model on English Wikipedia by Gensim3. Running Word2Vec with Chinese/English Wikipedia Dump4. GloVe: Global Vectors f...原创 2018-03-11 20:04:09 · 311 阅读 · 0 评论 -
到哪里去找关于NLP方面的论文
自然语言处理方面的论文1. 会议ACL、EMNLP、NAACL、COLING、EACL2. 期刊TACL、TASLP、CL原创 2017-07-06 11:18:37 · 1641 阅读 · 0 评论 -
NLP
自然语言处理与信息检索共享平台原创 2017-06-20 11:18:34 · 497 阅读 · 0 评论 -
卷积动态图
图片来自网络转载 2018-04-25 18:27:16 · 7664 阅读 · 0 评论 -
Convolutional Neural Networks
1. An Intuitive Explanation of Convolutional Neural Networks2. Understanding Convolutional Neural Networks for NLP3. Convolutional Neural Networks (CNNs / ConvNets)4. Introduction to Deep Convolutiona...原创 2018-04-26 09:38:34 · 303 阅读 · 0 评论 -
Transformer学习资料
1. 论文PDF2. The IIIustrated Transformer3.详解Transformer (Attention Is All You Need)原创 2019-08-02 11:06:21 · 211 阅读 · 0 评论 -
GPT 学习资料
1.效果惊人的GPT 2.0模型2. GPT2.0解读原创 2019-08-03 12:18:31 · 301 阅读 · 0 评论 -
ResNet学习资料
1. ResNet介绍 残差网络模型退化原创 2019-08-03 10:15:01 · 180 阅读 · 0 评论 -
模型初始化
1.如何将别人训练好的model用到自己的数据上2.深度学习中神经网络的几种权重初始化方法原创 2018-07-31 09:15:22 · 2716 阅读 · 0 评论 -
Recurrent Neural Networks
1. Recurrent Neural Networks Tutorial, Part 1 – Introduction to RNNs2. 循环神经网络教程第一部分-RNN简介原创 2018-04-26 09:42:43 · 192 阅读 · 0 评论 -
Emotional Chatting Machine: Emotional Conversation Generation with Internal and External Memory
Emotional Chatting Machine: Emotional Conversation Generation with Internal and External Memory原创 2017-05-09 07:56:16 · 1005 阅读 · 0 评论 -
Distill
Machine Learning ResearchShould Be Clear, Dynamic and Vivid.Distill Is Here to Help.原创 2017-04-26 11:19:01 · 1215 阅读 · 0 评论 -
神经机器翻译NMT
神经网络机器翻译Neural Machine Translation(1): Encoder-Decoder Architecture神经网络机器翻译Neural Machine Translation(2): Attention Mechanism神经网络机器翻译Neural Machine Translation(3): Achieving Open Vocabulary Neur原创 2017-03-20 21:28:07 · 1019 阅读 · 0 评论 -
Modeling Coverage for Neural Machine Translation
Modeling Coverage for Neural Machine Translation: http://www.wtoutiao.com/p/265wIFW.html原创 2017-03-20 21:19:16 · 614 阅读 · 0 评论 -
Ubuntu 16.04 LTS 安装Theano配置GPU
http://www.linuxidc.com/Linux/2016-08/134145.htm原创 2017-03-06 13:09:28 · 1054 阅读 · 0 评论 -
NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE
《Neural Machine Translation By Jointly Learning To Align And Translate》通过标齐和翻译的联合学习实现神经机器翻译1.背景传统的编码器-解码器结构的神经机器翻译中,将句子的所有信息压缩到一个固定长度的向量中,当这个句子很长时,就会导致信息的丢失,也就是一个固定长度的向量不能很好表示句子的信息。这篇论文中通过注意原创 2017-02-26 22:51:24 · 958 阅读 · 0 评论 -
Context-aware Natural Language Generation with Recurrent Neural Networks
《Context-aware Natural Language Generation with Recurrent Neural Networks》使用循环神经网络的上下文感知自然语言生成1.背景传统的自然语言生成(可以理解为NMT)中,只是开始生成的时候才用到了编码时生成的向量,这篇论文主要针对该问题做出相应的改进,在后续生成过程中使用编码时生成的向量。2.大体框架2.1传统原创 2017-02-26 23:33:17 · 1319 阅读 · 0 评论 -
Word2Vec学习笔记
1. Word2Vec简介 Word2Vec全拼为:Word toVector,也就是将自然语言中的词转换为K维实数向量,用词向量来表示一个词,通过词与词之间的距离(Cos距离或者欧氏距离)来判断它们之间的语义相似度,其采用一个三层的神经网络,输入层-隐层-输出层。(核心技术是哈夫曼编码,因为哈夫曼编码中高频词的编码比较短,有利于提高计算的效率,哈夫曼的构建是根据语料库中各个词原创 2017-02-27 09:14:15 · 630 阅读 · 0 评论 -
Recurrent Neural Networks Tutorial 中文翻译
Recurrent Neural Networks Tutorial翻译:循环神经网络教程第一部分-RNN简介循环神经网络教程第二部分-用python,numpy,theano实现一个RNN循环神经网络教程第三部分-BPTT和梯度消失循环神经网络教程第四部分-用Python和Theano实现GRU/LSTM循环神经网络原创 2017-03-04 17:31:25 · 519 阅读 · 0 评论 -
BPTT(BackPropagation Through Time)
推荐博客:http://www.cnblogs.com/wacc/p/5341670.html原创 2017-03-04 17:29:02 · 4285 阅读 · 0 评论 -
RNN简介
1.RNN的应用 RNN主要有两个应用,一是评测一个句子出现的可能性,二是文本自动生成。2.什么是RNN? RNN之所以叫RNN是因为它循环处理相同的任务,就是预测句子接下来的单词是什么。RNN认为在这循环的任务中,各个步骤之间不是独立,于是它循环记录前面所有文本的信息(也叫记忆),作为预测当前词的一个输入。 在RNN中,每个词作为一层,原创 2017-03-04 01:34:04 · 4563 阅读 · 0 评论 -
分词
中文分词入门之资源Python自然语言处理实践: 在NLTK中使用斯坦福中文分词器原创 2017-03-22 13:37:25 · 543 阅读 · 0 评论 -
字典
新华字典原创 2017-03-22 22:17:02 · 302 阅读 · 0 评论 -
win10 theano gpu
1. Making Theano Faster with CuDNN and CNMeM on Windows 10原创 2017-05-24 22:43:51 · 241 阅读 · 0 评论 -
NLP Paper
1. NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE2. Context-aware Natural Language Generation with Recurrent Neural Networks3. Ensemble Distillation for Neural Machine Trans原创 2017-03-20 21:48:24 · 746 阅读 · 0 评论 -
先存着-nlp
GloVe: Global Vectors for Word Representation原创 2017-04-06 21:25:12 · 769 阅读 · 0 评论 -
NLP在线演示
哈工大-讯飞语言云清华中文分词THULAC原创 2017-03-22 23:21:51 · 1717 阅读 · 0 评论 -
Part_of_speech
POS(Part_Of_Speech)1. 官网原创 2017-04-06 21:03:56 · 386 阅读 · 0 评论 -
Tensorflow安装
Ubuntu 16.04安装配置TensorFlow GPU版本原创 2017-03-18 13:35:51 · 224 阅读 · 0 评论 -
Semantic Evaluation
Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval 2014)原创 2017-03-23 14:16:21 · 541 阅读 · 0 评论 -
jieba分词
jieba分词源码原创 2017-03-22 11:29:06 · 667 阅读 · 0 评论 -
NLP语料库
中文文本分类的新闻语料库汉语句义结构标注语料库原创 2017-03-23 00:29:08 · 2596 阅读 · 0 评论 -
CWE源码
CWE(Character-enhanced Word Embedding), learn embedding jointly for word but ignores radicalsCWE源码原创 2017-03-22 22:33:03 · 819 阅读 · 0 评论 -
Sequence-Level Knowledge Distillation
《Sequence-Level Knowledge Distillation》序列级别的知识提炼一、大纲这篇论文主要讲的是模型压缩,也就是训练一个简单的网络来代替已有的复杂的网络,训练的目标两个网络的交叉熵最小(两个网络的效果相近)和简单网络的负对数似然最小(网络的效果好)。 二、Word-Level 描述:Teacher Network和Student原创 2017-03-04 01:08:42 · 4147 阅读 · 0 评论