论文阅读
用技术仰望星空
怕什么真理无穷,进一寸有进一寸的欢喜!
展开
-
VARIANCE REDUCTION FOR REINFORCEMENT LEARNING IN INPUT-DRIVEN ENVIRONMENTS
VARIANCE REDUCTION FOR REINFORCEMENT LEARNING 如何解决强化学习中遇到的输入具有很强的随机性即 input-driven environment的问题,这一问题会导致reward具有非常大的varience,难以判断action的好坏。 论文背景:作者使用强化学习的方法解决视频分辨率自适应选择问题。由于视频分辨率选择受网络带宽变化、视频时长因素影响。不同于游戏场景中state和action分布的有限性和确定性。这些因素具有很强的随机性。 input不仅有state原创 2020-10-12 16:49:40 · 311 阅读 · 0 评论 -
SqueezeNet和Deep compression
Deep compression SqueezeNet转载 2019-12-14 14:31:09 · 162 阅读 · 0 评论 -
Faster-RCNN
参考 https://www.cnblogs.com/zyly/p/9247863.html原创 2019-12-14 09:12:03 · 91 阅读 · 0 评论 -
PReLu论文解读
历史以来,提升准确率方法 增加深度,增大宽度,使用更小的stride, 新的非线性激活函数、巧妙的结构设计、更好的归一化技巧、数据增广、大数据规模 在这里,ai表示第i个神经元的系数,不同神经元 PRelu系数不一样 当ai固定为一个较小数(ai=0.01)时,为Leaky ReLu 在文章中,作者使ai=0.5初始化 称每层共享ai的层位 channel-shared,不共享为channel...原创 2019-12-10 22:07:48 · 1425 阅读 · 0 评论 -
Spatial Pyramid Pooling空间金字塔池化
一般cnn的输入需要固定尺寸的image,往往通过裁剪crop和形变wrap来实现, cnn可以分为两部分,前部分为卷积池化层提取特征,后部分为全连接层,前部分对输入图像size并没有固定要求,但是全连接层神经元个数要求与前部分生成feature map 相match,作者提出在前后部分之间增加SPP SPP的训练方法:将不同size图像分为不同epoch,每个epoch输入一批相同size图像...原创 2019-12-10 22:07:23 · 146 阅读 · 0 评论 -
R-CNN
R-CNN原理:对于每幅输入图片,生成2000左右个proposal,再将这2000左右个proposal分别输入到CNN提取特征,最后使用多个SVM对 CNN输出结果进行分类。 使用affine image warping(仿射图片扭曲):使得对不同大小的proposal,都能有fixed-size的CNN input, regardless of the region’s shape。 ...原创 2019-12-05 09:40:06 · 131 阅读 · 0 评论 -
AlexNet论文
Response Normalization用于1,2层,Maxpooling层用于1,2,5,Relu用于所有层 1、作者使用ReLu,大大加快了训练速度,数倍于saturating neurons,如tanh,sigmoid 2、使用Local Response Normalization 3、使用Overlapping Pooling stride=3,size=2 防止过拟合: ...原创 2019-12-03 17:08:07 · 196 阅读 · 0 评论