自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

read, note and comment papers

hard hard learning day day up

  • 博客(16)
  • 资源 (3)
  • 收藏
  • 关注

原创 ESPCN

论文全称:Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network 来自CVPR2016 The downsampling operation is deterministic and known: to produce ILR from...

2019-07-31 15:06:34 248

原创 常用命令行

pip install -ihttps://pypi.tuna.tsinghua.edu.cn/simple库名 复制:cp file path,当file有子目录时使用cp -r file path 重命名:mv oldfilename newfilename 解压:unzip filename.zip 解压tar:https://www.cnblogs.com/cursorhu/p...

2019-07-29 09:00:06 114

原创 Perceptual Losses对SR论文阅读笔记

原论文链接如下:https://arxiv.org/abs/1603.08155论文主要观点就是,对loss计算方式的改进,原来多数基于per-pixel的loss计算,而论文提出两种loss:feature reconstruction loss和style reconstruction loss,由于SR只涉及feature loss,所以另一个暂时先不讲 feature reconst...

2019-07-25 23:38:38 292

原创 PFF阅读笔记

PFF到写博文为止仍是set5-upscaling的冠军:https://arxiv.org/pdf/1811.11482v1.pdf 采取L1loss,加上正则化项 网络产生的是filter,用filter来“卷积”LR得到HR',将HR'与HR计算loss 之所以是“卷积”,是因为,每个pixel的neighbor pixels group乘的不是同一个filter,比如,如果im的...

2019-07-25 11:49:03 215

原创 Caffe学习笔记

本来caffe不流行了,是不必要学的,但是实验室说,过去一些代码还是用caffe写的,所以要看得懂caffe的代码才行,就在b站找了个caffe的教程:https://www.bilibili.com/video/av37229163/ caffe全称是convolutional architecture for feature embedding caffe可以之间在命令行配置网络并进行训练...

2019-07-24 15:46:42 317

原创 李宏毅深度学习笔记3

如果使用traditional supervised approach,输出的图片会比较模糊,因为最后计算距离没有很好的损失函数。这时可以使用traditional GAN的方法,将待处理图片作为condition,将处理结果做为真实图片,将G的输出作为D的输入,同时可以在G的输出处加一个neck损失函数度量与原图像的相似性,可以有效地抑制GAN加一些多余的东西风格转换:使用cycle G...

2019-07-24 08:17:36 191

原创 EDSR阅读笔记

原论文地址:https://arxiv.org/abs/1707.02921从Related Work中发现,不是所有的SR都是先interp再传入网络的,也有先传入网络,再upsampling(反卷积)为HR的(FSRCNN),后一种可以减少神经网络参数,因为传入的图像像素点数量较少,但无法解决不同scale的问题,即模型训练在什么scale上,就只能应用在什么scale上,而EDSR论文提...

2019-07-23 14:04:39 646

原创 WDSR论文阅读笔记

在ReLU前有更宽的channel有助于提高acc,在相同数量的参数下,使需要做res-identity传播的层的channel数量减少而增多ReLU层前的channel的数量。 要Weight-Normalization而不是batch-normalization,能提供更好的acc和更快的收敛,batch normalization 在SR中被抛弃了 linear-low-rank c...

2019-07-22 22:33:53 904 7

原创 SRCNN阅读笔记

原文链接如下:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7115171&tag=1首先是pre-processing,将低分辨率图像用插值法增加pixel数量到与高分辨率图像X一样多,设此时图像为Y,那么SRCNN的目的就是找到这样一个function F, 使F(Y)与X越接近越好 1) 其次是 “Pa...

2019-07-20 17:02:06 375

原创 李宏毅深度学习17学习笔记2

capsule: 其中c1 c2是dynamic routing的,而不是back propagation train出来的,c1和c2的和必须是1,如何得到c1和c2?: 循环的意义在于,不断的调整中,使偏离集体的输入有更低的c,每一个capsule可以看成一个类似于rnn的结构,而真正起预测作用的,是v的模长: 也就是说,当你需要n分类输出的时候,你需要在输出层有n个capsule,每...

2019-07-18 10:35:12 178

原创 西瓜书强化学习笔记

epsilon-贪心算法:以epsilon的概率随机选取摇臂,以1-epsilon的概率选择平均奖赏最高的摇臂,其中epsilon可以取0.1或者1/根号t,即随时间变小 softmax算法中摇臂几率的分配基于boltzmann分布,平均奖赏高的摇臂被选中的概率高于平均奖赏低的摇臂 其中,Q(i)为当前摇臂的平均奖赏, τ>0称为温度,越小则平均奖赏高的摇臂选取率越高,趋于0时趋于仅利...

2019-07-17 22:09:13 375

原创 Batch Normalization

先做normalization再做activation batch 要大 梯度是会传到μ和方差并进一步传到W的,也就是说,多了一条back_propagation的路径到达W 在test 的时候,μ和方差得到的方式和train是不一样的,train的时候是每个batch的均值和方差,而test的时候取的μ和方差是train的时候的均值和方差的滑动平均 batch normalization...

2019-07-17 10:49:29 99

原创 GRU

这是一个未展开的RNN图 对于每个输出 X,会根据上一刻的隐藏状态 h(t-1),通过重置门,得到一个候选隐藏状态 h~。 而我们真正要计算的隐藏状态 h(t) ,会根据上一时间的隐藏状态 h(t-1) 和候选隐藏状态 h~,通过 z 更新门来更新。...

2019-07-15 16:39:31 1022

转载 LSTM

关于LSTM以下个人网站讲得很不错http://lawlite.me/2017/06/21/RNN-%E5%BE%AA%E7%8E%AF%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E4%B9%8BLSTM%E5%92%8CGRU-04%E4%BB%8B%E7%BB%8D%E5%8F%8A%E6%8E%A8%E5%AF%BC/...

2019-07-15 16:33:33 137

原创 李宏毅2017深度学习学习笔记1

pooling 有两种方式,一种是把同一感受野的输出pooling,起到的是maxout network的作用,即把同一感受野通过不同filter的结果进行max out以使模型能辨别多样性输入;另一种是把同一filter 的输出pooling,起到的是down sampling的作用 language model 中的matrix factorization 和 NN 方法 ...

2019-07-14 19:00:42 414

原创 莫烦pytorch学习笔记

torch.dot()处理两个1-D tensor,结果为1*1的数,torch.mm(a, b)执行矩阵乘法, 还有 torch.normal(...), torch.zeros(...), x.pow(2)等等函数 torch.unsqueeze()增加一个维度,使 i * j tensor 变为 1 * i * j 或 i * j * 1 等,可以指定dim torch.linspa...

2019-07-13 22:48:51 217

neighbor2neighbor 代码 debug完,参考

看有几个人问我neighbor2neighbor的代码问题,我直接把我debug好的代码发出来吧

2022-11-22

opencv-4.3.0.zip

最新版本opencv源码

2020-05-13

cmake-3.17.2.tar.gz

最新版本cmake的源码

2020-05-13

facebook开源目标检测框架所用到的R-101预训练的权重文件 R-101.pkl

facebook开源目标检测框架所用到的R-101预训练的backbone,直接跑代码自动下载总是断掉,被墙了,直接去官网下载也很慢,这里下载好了分享

2020-05-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除