论文阅读总结
文章平均质量分 76
小杰.
这个作者很懒,什么都没留下…
展开
-
Pretrained-Model-03-ELMO 论文阅读笔记
论文题目:Deep contextualized word representations 发表会议:2018-NAACL原创 2020-12-09 20:25:21 · 232 阅读 · 0 评论 -
light weight neural network-01-MobileNets
论文题目:MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 发表会议:2017-CVPR 1、相关工作 本文创新点: 提出了一类新型网络架构,根据应用需求与资源限制(延迟,大小),构建相匹配的小型网络 MobileNets主要致力于优化延迟,但也可以产生小型网络 MobileNets 主要基于深度可分离卷积构成,通过设置两个超参数,实现准确率和延时性之间的平衡 轻量化网络在方.原创 2020-09-06 21:20:34 · 308 阅读 · 0 评论 -
Pretrained-Model-02-Transformer-XL阅读笔记
文章题目:Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context 发表会议及时间:2019-ACL 1、背景知识 2、相关工作 Valilla Transformer 的训练和测试阶段信息流过程 训练阶段: 测试阶段: 训练阶段:将文本分割为多个片段,进行单独的训练,片段之间的信息无交流 测试阶段:首先使用X1~X4(假设片段长度为4)来预测X5,然后使用X2~X5的信...原创 2020-09-02 22:23:23 · 227 阅读 · 0 评论 -
Pretrained-model-01-Transformer论文阅读笔记
论文题目:Attention Is All Y ou Need 发表会议:2017-NIPS 1、背景知识 1.1、翻译效果评价指标BLUE 参考博客: https://blog.csdn.net/guolindonggld/article/details/56966200 主要讲解BLUE在nltk中的实现 https://blog.csdn.net/jkwwwwwwwwww/article/details/52846728 from nltk.trans...原创 2020-08-31 22:56:14 · 692 阅读 · 0 评论 -
NLP10-SGM-论文学习笔记
论文题目:SGM: Sequence Generation Model for Multi-Label Classification 发表期刊:2018-Coling Bestpaper 多标签分类:The target of the MLC task is to assign multiple labels to each instance in the dataset 1、相关工作 将多标签分类问题看做是一个链式的二分类问题 也采用了序列生成的方式,但没有采用注意力机制,获得的提...原创 2020-08-28 23:44:51 · 892 阅读 · 0 评论 -
NLP-07-Deep nmt 学习笔记
标题:Sequence to Sequence Learning with Neural Networks 发表期刊:NIPS-2014 1、背景介绍 1.1、机器翻译评价指标:BLUE 1.2、seq2seq模型原创 2020-08-28 17:00:19 · 186 阅读 · 0 评论 -
NLP-05-Char Text Cnn 学习笔记
文章标题:Character-level Convolutional Networks for Text Classification 发表期刊:NIPS-2015 单位:纽约大学 作者:原创 2020-08-18 10:34:32 · 310 阅读 · 0 评论 -
NLP-04-TextCNN阅读笔记
标题:Convolutional Neural Networks for Sentence Classification 发表期刊:EMNLP2014 单位:纽约大学 1、网络结构 总体来说,网络由一个卷积层、一个最大池化层和一个全连接层组成 1.1、正则化 1.2、TextCNN应用 2、实验结果与分析 2.1、词向量的影响 上图展示的实验仅采用的词向量不同,分别使用glove和word2vec;均采用静态单通道的模型 实验发现word2v...原创 2020-08-16 18:43:23 · 502 阅读 · 0 评论 -
NLP-03-character embedding(C2W) 阅读笔记
论文题目:Finding Function in Form: Compositional Character Models for Open Vocabulary Word Representation 发表期刊:2015-EMNLP 单位:卡纳基美隆大学 1、背景介绍 向量的学习对于自然语言处理的应用非常重要,词向量可以在空间上捕获词之间的语法和语义相似性。【背景介绍】 但是词向量机制中的词和词之间是独立的,这种独立性假设是有问题的,词之间形式上的相似性会一定程度造成功能的相似性,尤..原创 2020-08-15 20:24:50 · 1755 阅读 · 0 评论 -
NLP-02-glove 阅读笔记
发表期刊:EMNLP 2014 单位:斯坦福大学 1.1、文章摘要: 当前词向量学习模型能够通过向量的算术计算捕捉词之间细微的语法和语义规律,但是这种规律背后的原理依旧不清楚【介绍当前研究现状及存在问题】 经过仔细的分析,我们发现了一些有助于这种词向量规律的特性,并基于词提出了一种新的对数双线性回归模型,这种模型能够利用全局矩阵分解和局部上下文的优点来学习词向量【分析如何改进】 我们的模型通过只在共现矩阵中的非0位置训练达到高效训练的目的【改进方法】 我们的模型在词对推理任务上得到75%的.原创 2020-08-13 16:33:43 · 276 阅读 · 0 评论 -
NLP-01-word2vec 阅读笔记
发表期刊:EMNLP 2014 单位:斯坦福大学 1.1、文章摘要: 当前词向量学习模型能够通过向量的算术计算捕捉词之间细微的语法和语义规律,但是这种规律背后的原理依旧不清楚【介绍当前研究现状及存在问题】 经过仔细的分析,我们发现了一些有助于这种词向量规律的特性,并基于词提出了一种新的对数双线性回归模型,这种模型能够利用全局矩阵分解和局部上下文的优点来学习词向量【分析如何改进】 我们的模型通过只在共现矩阵中的非0位置训练达到高效训练的目的【改进方法】 我们的模型在词对推理任务上得到75%的.原创 2020-08-13 16:31:03 · 2449 阅读 · 0 评论 -
CV-3-GoogleNet-V1 论文阅读笔记
...原创 2020-07-01 22:35:34 · 152 阅读 · 0 评论 -
CV-02-VGG论文阅读总结
1、数据 输入:224*224 RGB彩色图像 预处理:对图像的每个像素做了减去均值的操作。 数据增强:随机水平翻转和随机RGB colour shift 设置S=224为最小边长,从原图中等比例缩放,然后从中随机裁剪224*224的部分用于训练 2、网络结构 3.训练细节 训练过程与AlexNet基本相似,除了从各种尺寸的图像中心裁剪图片 batch size:256 ...原创 2020-04-09 18:09:09 · 634 阅读 · 0 评论 -
CV-01-AlexNet学习笔记
包含卷积尺寸计算方法原创 2020-04-03 16:52:44 · 955 阅读 · 2 评论