- 博客(16)
- 资源 (3)
- 收藏
- 关注
原创 ESPCN
论文全称:Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network 来自CVPR2016 The downsampling operation is deterministic and known: to produce ILR from...
2019-07-31 15:06:34 248
原创 常用命令行
pip install -ihttps://pypi.tuna.tsinghua.edu.cn/simple库名 复制:cp file path,当file有子目录时使用cp -r file path 重命名:mv oldfilename newfilename 解压:unzip filename.zip 解压tar:https://www.cnblogs.com/cursorhu/p...
2019-07-29 09:00:06 114
原创 Perceptual Losses对SR论文阅读笔记
原论文链接如下:https://arxiv.org/abs/1603.08155论文主要观点就是,对loss计算方式的改进,原来多数基于per-pixel的loss计算,而论文提出两种loss:feature reconstruction loss和style reconstruction loss,由于SR只涉及feature loss,所以另一个暂时先不讲 feature reconst...
2019-07-25 23:38:38 292
原创 PFF阅读笔记
PFF到写博文为止仍是set5-upscaling的冠军:https://arxiv.org/pdf/1811.11482v1.pdf 采取L1loss,加上正则化项 网络产生的是filter,用filter来“卷积”LR得到HR',将HR'与HR计算loss 之所以是“卷积”,是因为,每个pixel的neighbor pixels group乘的不是同一个filter,比如,如果im的...
2019-07-25 11:49:03 215
原创 Caffe学习笔记
本来caffe不流行了,是不必要学的,但是实验室说,过去一些代码还是用caffe写的,所以要看得懂caffe的代码才行,就在b站找了个caffe的教程:https://www.bilibili.com/video/av37229163/ caffe全称是convolutional architecture for feature embedding caffe可以之间在命令行配置网络并进行训练...
2019-07-24 15:46:42 317
原创 李宏毅深度学习笔记3
如果使用traditional supervised approach,输出的图片会比较模糊,因为最后计算距离没有很好的损失函数。这时可以使用traditional GAN的方法,将待处理图片作为condition,将处理结果做为真实图片,将G的输出作为D的输入,同时可以在G的输出处加一个neck损失函数度量与原图像的相似性,可以有效地抑制GAN加一些多余的东西风格转换:使用cycle G...
2019-07-24 08:17:36 191
原创 EDSR阅读笔记
原论文地址:https://arxiv.org/abs/1707.02921从Related Work中发现,不是所有的SR都是先interp再传入网络的,也有先传入网络,再upsampling(反卷积)为HR的(FSRCNN),后一种可以减少神经网络参数,因为传入的图像像素点数量较少,但无法解决不同scale的问题,即模型训练在什么scale上,就只能应用在什么scale上,而EDSR论文提...
2019-07-23 14:04:39 646
原创 WDSR论文阅读笔记
在ReLU前有更宽的channel有助于提高acc,在相同数量的参数下,使需要做res-identity传播的层的channel数量减少而增多ReLU层前的channel的数量。 要Weight-Normalization而不是batch-normalization,能提供更好的acc和更快的收敛,batch normalization 在SR中被抛弃了 linear-low-rank c...
2019-07-22 22:33:53 904 7
原创 SRCNN阅读笔记
原文链接如下:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7115171&tag=1首先是pre-processing,将低分辨率图像用插值法增加pixel数量到与高分辨率图像X一样多,设此时图像为Y,那么SRCNN的目的就是找到这样一个function F, 使F(Y)与X越接近越好 1) 其次是 “Pa...
2019-07-20 17:02:06 375
原创 李宏毅深度学习17学习笔记2
capsule: 其中c1 c2是dynamic routing的,而不是back propagation train出来的,c1和c2的和必须是1,如何得到c1和c2?: 循环的意义在于,不断的调整中,使偏离集体的输入有更低的c,每一个capsule可以看成一个类似于rnn的结构,而真正起预测作用的,是v的模长: 也就是说,当你需要n分类输出的时候,你需要在输出层有n个capsule,每...
2019-07-18 10:35:12 178
原创 西瓜书强化学习笔记
epsilon-贪心算法:以epsilon的概率随机选取摇臂,以1-epsilon的概率选择平均奖赏最高的摇臂,其中epsilon可以取0.1或者1/根号t,即随时间变小 softmax算法中摇臂几率的分配基于boltzmann分布,平均奖赏高的摇臂被选中的概率高于平均奖赏低的摇臂 其中,Q(i)为当前摇臂的平均奖赏, τ>0称为温度,越小则平均奖赏高的摇臂选取率越高,趋于0时趋于仅利...
2019-07-17 22:09:13 375
原创 Batch Normalization
先做normalization再做activation batch 要大 梯度是会传到μ和方差并进一步传到W的,也就是说,多了一条back_propagation的路径到达W 在test 的时候,μ和方差得到的方式和train是不一样的,train的时候是每个batch的均值和方差,而test的时候取的μ和方差是train的时候的均值和方差的滑动平均 batch normalization...
2019-07-17 10:49:29 99
原创 GRU
这是一个未展开的RNN图 对于每个输出 X,会根据上一刻的隐藏状态 h(t-1),通过重置门,得到一个候选隐藏状态 h~。 而我们真正要计算的隐藏状态 h(t) ,会根据上一时间的隐藏状态 h(t-1) 和候选隐藏状态 h~,通过 z 更新门来更新。...
2019-07-15 16:39:31 1022
转载 LSTM
关于LSTM以下个人网站讲得很不错http://lawlite.me/2017/06/21/RNN-%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E4%B9%8BLSTM%E5%92%8CGRU-04%E4%BB%8B%E7%BB%8D%E5%8F%8A%E6%8E%A8%E5%AF%BC/...
2019-07-15 16:33:33 137
原创 李宏毅2017深度学习学习笔记1
pooling 有两种方式,一种是把同一感受野的输出pooling,起到的是maxout network的作用,即把同一感受野通过不同filter的结果进行max out以使模型能辨别多样性输入;另一种是把同一filter 的输出pooling,起到的是down sampling的作用 language model 中的matrix factorization 和 NN 方法 ...
2019-07-14 19:00:42 414
原创 莫烦pytorch学习笔记
torch.dot()处理两个1-D tensor,结果为1*1的数,torch.mm(a, b)执行矩阵乘法, 还有 torch.normal(...), torch.zeros(...), x.pow(2)等等函数 torch.unsqueeze()增加一个维度,使 i * j tensor 变为 1 * i * j 或 i * j * 1 等,可以指定dim torch.linspa...
2019-07-13 22:48:51 217
facebook开源目标检测框架所用到的R-101预训练的权重文件 R-101.pkl
2020-05-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人