![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 70
shelleyHLX
这个作者很懒,什么都没留下…
展开
-
YOLOv3: An Incremental Improvement
文章目录Abstract1. Introduction2. The Deal2.1. Bounding Box Prediction2.2. Class Prediction2.3. Predictions Across Scales2.4. Feature Extractor2.5. Training3. How We Do4. Things We Tried That Didn’t Work5...原创 2019-10-28 17:31:11 · 303 阅读 · 0 评论 -
NLP and ML publications – looking back at 2016
from:http://www.marekrei.com/blog/nlp-and-ml-publications-looking-back-at-2016/转载 2018-12-18 10:47:45 · 154 阅读 · 0 评论 -
一文纵览全球36个AI会议:机器学习十年发展回顾
from:http://www.sohu.com/a/283928293_473283作者:爱思美谱(id:acemap_)指导教师:王新兵 教授【新智元导读】根据CCF推荐目录,Acemap对人工智能方向36个会议(A类7个、B类12个、C类17个)会议进行了多角度、全方位的立体画像。分别从会议中稿量、会议H-index、会议文章引用量、会议核心作者、会议影响力和论文数量的tra...转载 2018-12-24 10:06:12 · 280 阅读 · 0 评论 -
ICLR2013-2019的论文
https://openreview.net/group?id=ICLR.cc/2013https://openreview.net/group?id=ICLR.cc/2014https://iclr.cc/archive/www/2015.html2016:https://www.cnblogs.com/GarfieldEr007/p/5328626.htmlhttps://op...原创 2019-01-03 16:03:43 · 295 阅读 · 0 评论 -
ICLR 2013--论文
ICLR 2013 Conference TrackAccepted for Oral PresentationHerded Gibbs Sampling Luke Bornn, Yutian Chen, Nando de Freitas, Maya Baya, Jing Fang, Max Welling19 Jan 2013ICLR 2013 conference submis...原创 2019-01-03 16:11:23 · 762 阅读 · 0 评论 -
ICLR 2014--论文
ICLR 2014 Workshop TrackSubmitted PapersDo Deep Nets Really Need to be Deep? Jimmy Lei Ba, Rich Caurana26 Dec 2013ICLR 2014 workshop submissionReaders: Everyone10 RepliesMulti-GPU Training ...原创 2019-01-03 16:17:02 · 1313 阅读 · 0 评论 -
论文阅读--An overview of gradient descent optimization algorithms
An overview of gradient descent optimization algorithms∗Abstract梯度下降法(Gradient Descent)优化算法,越来越受欢迎,通常用作black-box优化器,但是实践证明他们的优点和缺点都很难克服。本文旨在提供不同算法的表现,主要是梯度下降法的变体,总结了解决问题的挑战,介绍了常见的优化算法,而且调查了优化梯度下降方法的...原创 2019-01-16 15:55:48 · 1209 阅读 · 0 评论 -
Natural Language Inference--自然语言推理
自然语言推理是推断两个句子之间的关系,比如一个是前提的句子和一个是假设的句子,他们的关系可以是蕴涵,中立和矛盾。数据集:The Stanford Natural Language Inference (SNLI) Corpushttps://nlp.stanford.edu/projects/snli/发展状况:Publication Model Parameters...原创 2019-01-03 14:34:01 · 3912 阅读 · 0 评论 -
Universal Language Model Fine-tuning for Text Classification
Universal Language Model Fine-tuning for Text Classification文章目录Universal Language Model Fine-tuning for Text ClassificationABSTRACT1 Introduction2 Related work3 Universal Language Model Fine-tuning3...原创 2019-03-06 11:18:13 · 491 阅读 · 0 评论 -
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
文章目录abstract1 Introduction2 Related Work2.1 Unsupervised Feature-based Approaches2.2 Unsupervised Fine-tuning Approaches2.3 Transfer Learning from Supervised Data3 BERT3.1 Pre-training BERT3.2 Fine-tuning BERT4 Experiments4.1 GLUEabstractWe introduce a n原创 2019-08-20 11:21:37 · 702 阅读 · 0 评论 -
Semantic Sentence Matching with Densely-connected Recurrent and Co-attentive Information
文章目录AbstractIntroductionRelated WorkMethodsExperimentsExperimental ResultsAbstractSentence matching is widely used in various natural language tasks such as natural language inference, paraphrase id...原创 2019-08-20 17:03:14 · 581 阅读 · 0 评论 -
NATURAL LANGUAGE INFERENCE OVER INTERACTION SPACE
文章目录ABSTRACT1 INTRODUCTION2 RELATED WORK3 MODEL3.1 INTERACTIVE INFERENCE NETWORK3.2 DENSELY INTERACTIVE INFERENCE NETWORK4 EXPERIMENTS4.1 DATA4.2 EXPERIMENTS SETTING4.3 EXPERIMENT ON MULTINLI4.4 EXPER...原创 2019-08-21 16:43:42 · 857 阅读 · 1 评论 -
57 summaries of ML and NLP research
from:http://www.marekrei.com/blog/paper-summaries/Staying on top of recent work is an important part of being a good researcher, but this can be quite difficult. Thousands of new papers are publishe...转载 2018-12-18 10:35:42 · 2766 阅读 · 0 评论 -
NAACL
from:https://baijiahao.baidu.com/s?id=1598532519899884367&wfr=spider&for=pc雷锋网 AI 科技评论按:ACL、EMNLP、NAACL - HLT、COLING 是 NLP 领域的四大顶会。前三者都由 ACL(Association of Computational Linguistics)举办, 其中 N...转载 2018-12-18 10:26:48 · 1467 阅读 · 0 评论 -
Convolutional Neural Networks for Sentence Classification
实现代码:https://github.com/dennybritz/cnn-text-classification-tfabstract在预先训练好的词向量训练CNN特定任务的词向量有更好的效果1 介绍Introduction深度学习:CV,SR(计算机视觉,语音识别)在自然语言处理中,关于深度学习的工作大都涉及学习词向量代表。1-V的编码的向量通过一个隐含层投影到底...原创 2018-08-03 10:25:56 · 289 阅读 · 0 评论 -
Very Deep Convolutional Networks for Text Classification
实现:https://github.com/zonetrooper32/VDCNNAbstractNLP的许多任务的方法是循环神经网络,特别是LSTM,与深层的卷积神经网络相比,这些网络都比较浅,所以我们构建VDCNN,这是字符级的,并且仅用小的卷积和pooling操作,用了29层卷积层。1 IntroductionNLP的任务是处理文本,提取文本,采用不同形式表示相同的信息,我们...原创 2018-09-04 16:31:55 · 1248 阅读 · 1 评论 -
A C-LSTM Neural Network for Text Classification
Abstract神经网络已经在句子和文档模型上获得巨大成就,CNN和RNN是两大方法,本论文结合了这两个网络,获得的网络叫C-LSTM,用来表示句子和文本分类。C-LSTM使用CNN抽取高级的短语表示,然后输入到LSTM获得句子表示,C-LSTM可以捕获短语的局部特征,句子的语义信息,代码:https://github.com/zackhy/TextClassification1 In...原创 2018-09-11 14:43:18 · 4886 阅读 · 4 评论 -
Abstractive Text Classification Using Sequence-to-convolution Neural Networks
code: https://github.com/tgisaturday/Seq2CNN我们的模型Seq2CNN包括两部分,抽取输入文本摘要的序列部分,处理摘要的卷积部分,然后进行分类,Seq2CNN可以分类不同长度的文本,不进行预处理,提出GWS方法进行训练,GWS用在损失函数上。1 Introduction信息分类的重要性。文本分类的应用,垃圾邮件过滤,新闻分类,情感分类。...原创 2018-09-18 09:32:07 · 543 阅读 · 0 评论 -
Adversarial Multi-task Learning for Text Classification
神经网络在多任务学习上获得重要进步,目的是学习共享层来提取相同的和任务相关的特征,但是,在现有方法中,提取好的共同特征会受特定任务的特征或任务带来的噪音影响,本文提出对抗多任务学习框架,减轻共享和私有的潜在特征空间互相影响,在16个不同的文本分类上进行试验,效果很好。1 Introduction多任务学习可以提高单任务的性能。最近,基于多任务学习的神经网络在CV和NLP中很流行。但是,...原创 2018-09-26 14:41:55 · 829 阅读 · 0 评论 -
Hierarchical Attention Networks for Document Classification
Hierarchical Attention Networks for Document Classificationabstract提出具有层次级的注意力网络进行文本分类,模型有两个重要特点:1 层次级结构表示文本的层级结构2 应用在词级和句子级的注意力机制,在构造文本表示时可以捕获不同的内容。1 introduction文本分类是自然语言处理的任务之一,目标是给文本贴标...原创 2018-09-29 10:36:30 · 1706 阅读 · 0 评论 -
A Hierarchical End-to-End Model for Jointly Improving Text Summarization and Sentiment Classificatio
abstract文本摘要和情感分类都是要捕获文本的重要信息,但是在不同的水平上的。文本摘要是用一些句子表示原始文档,情感分类是给文本贴标签。提出层次级的端到端模型进行摘要抽取和情感分类的联合学习,标签是作为文本摘要抽取的输出,情感分类依赖于摘要抽取, 情感分类放在摘要抽取上面code:http://coai.cs.tsinghua.edu.cn/publications/1 Int...原创 2018-09-30 10:55:42 · 620 阅读 · 0 评论 -
Information Aggregation via Dynamic Routing for Sequence Encoding
对文本序列进行编码获得向量有了很多的工作,而对于如何把前面网络(RNN/CNN的输出)获得的向量进行处理获得特定长度的向量的工作比较少。通常使用简单的max/average pooling,是自下而上的,并且消极的信息聚集,缺少特定任务信息的引导。本文中,提出了一个聚集机制,即动态路由机制来获得固定长度的编码。动态路由机制动态决定怎样和如何进行每个词的信息传递。根据capsule网络的工作,设计了...原创 2018-11-20 15:38:19 · 390 阅读 · 0 评论 -
Efficient Estimation of Word Representations in Vector Space
提出两个新颖的模型来计算词的连续向量表示,这些表示的质量用词的相似度来计算,结果和其他表现最好的技术进行比较。我们发现有很大的提高而且计算量低,比如1.6百万的词只需要不到一天的计算,而且这些向量对于语义和语法的相似度的计算获得最好的成绩。 1 Introduction一些NLP任务把词作为原子单元,词与词之间没有相似度,是作为词典的下标表示的,这种方法有几个好处:简单,鲁棒性,在大数...原创 2018-11-26 16:46:36 · 7210 阅读 · 0 评论 -
Distributed Representations of Words and Phrases and their Compositionality
最近提出的连续skip-gram模型是学习高质量分布式词向量表示的有效方法,它捕获了大量精确地语法和语义信息。本文的扩展是提高向量的质量和训练的速度。通过下采样一些频繁的词获得速度很大的提升,并且学得更规则的词表示,并且提出了一个可以替换层次级softmax的方法,叫负采样。 1 Introduction在NLP中,向量空间中的词的分布式表示有助于获得更好的性能。最早使用词的表示可以追...原创 2018-11-27 14:37:53 · 921 阅读 · 0 评论 -
GloVe: Global Vectors for Word Representation
学习词的向量空间表示可以很好捕获语法和语义规则信息,但是这些规则的起源并不透明。我们分析和阐明模型需要的这些规则。这是logbilinear regression模型,集合了全局矩阵分解和本地窗口大小的方法。模型训练在词和词的共现矩阵中,而不是整个语料库的稀疏矩阵。1 Introduction语言的语义向量空间模型把每个词表示为一个数值向量,这些向量是特征,可以使用在信息检索,文档分类,问...原创 2018-12-17 12:00:51 · 1770 阅读 · 0 评论 -
Deep Convolutional Neural Networks for Sentiment Analysis of Short Texts
代码:https://github.com/asahi417/DocumentClassificationhttps://github.com/asahi417/DocumentClassification/blob/master/sequence_modeling/model/cnn_char.pyabstract短文本的情感分析挑战:有限的文本信息本文提出DCNN(deep...原创 2018-08-09 11:36:42 · 2585 阅读 · 1 评论