![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
阅读笔记
小清新嘻嘻无敌
这个作者很懒,什么都没留下…
展开
-
Single-Image Super-Resolution via Linear Mapping of Interpolated Self-Examples笔记
此文2014年TIP。主要pointsdouble pyramid: a traditional single pyramid and a side pyramid of interpolated levels(figure 5)对traditional single pyramid,是对input LR image I_L作为I_0多层下采样 I_-n。对 a side pyra原创 2016-08-16 14:51:52 · 413 阅读 · 0 评论 -
稀疏表达以及相关改进
学习 http://blog.csdn.net/tiandijun/article/details/41578175 后随笔1,sparse representation解决问题:当数据量增大后,线性表达的基求解十分复杂,而且很多事多余的,稀疏表达可以解决这个问题。稀疏直观理解就是在满足误差小和非零项尽可能多,非零项就是解决零范数问题,但是约束太强,是非凸问题,松弛约束之后就转载 2016-09-26 14:59:26 · 498 阅读 · 0 评论 -
ReLu(Rectified Linear Units)激活函数
转载自 http://www.cnblogs.com/neopenx/p/4453161.htmlReLu(Rectified Linear Units)激活函数论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper)起源:传统激活函数、脑神经元激活频率研究、稀疏激活性传统S转载 2016-12-14 09:51:49 · 402 阅读 · 0 评论 -
Learning a Deep Convolutional Network for Image Super-Resolution—Chao Dong_ECCV2014
这篇文章是第一次将神经网络应用到超分之中,一共三层。框架图如下:第一层,size 为 c * f1 * f1 * n1. 第二层,size 为 n1 * 1 * 1 * n2.第三层,size 为 n2 * f3 * f3 * cc为image channel数量。 W 是filter , B 是bias.损失函数为:原创 2016-12-14 11:25:58 · 1812 阅读 · 0 评论 -
DenseNet Densely Connected Convolutional Networks
转自 https://blog.csdn.net/u012938704/article/details/53468483 https://blog.csdn.net/u014380165/article/details/75142664代码地址:https://github.com/liuzhuang13/DenseNet首先看一张图: 稠密连接:每层以之前层的输出为...转载 2018-08-21 10:09:41 · 328 阅读 · 0 评论