深度学习
Jerry_Leo_liu
这个作者很懒,什么都没留下…
展开
-
关于卷积层参数问题以及输出feature map的过程
只是自己的一些思考,不一定正确,还望指正首先,从代码实现时的参数来看,比如:实现3x3卷积将16个channel的feature map处理到32个channel,那么参数维度是(16,32,3,3)容易看出参数量就是16*32*3*3(忽略偏置参数量)可以理解为,对于输出feature map中的每个channel,都是输入feature每个通道和对应各个通道的3*3卷积核卷积求和的结果(输出每个channel对应一组与输入channel数相等的卷积核,这样就有out_channel * in_c原创 2020-05-16 18:42:16 · 1001 阅读 · 0 评论 -
pytorch下rgb和yuv通道的转换
import torchdef yCbCr2rgb(input_im): im_flat = input_im.contiguous().view(-1, 3).float() mat = torch.tensor([[1.164, 1.164, 1.164], [0, -0.392, 2.017], ...原创 2019-05-12 17:50:35 · 5064 阅读 · 2 评论 -
tf.layers.conv2d中的权重初始化参数默认为None,就是不初始化?
在调整网络时发现tf.layers.conv2d中的权重初始化参数默认为None,但是就算不给参数也可以正常训练,经过查看源码发现tf.layers.conv2d是从tf.keras.layer.Conv继承来的,在父类中对初始化进行了定义,kernel_initializer='glorot_uniform'对卷积核参数进行均匀初始化...原创 2019-03-14 16:15:08 · 4145 阅读 · 4 评论 -
Unsupervised Single Image Deraining with Self-supervised Constraints论文阅读
原文链接:https://arxiv.org/pdf/1811.08575.pdf文中提到以往的无监督方法因为没有对应的ground truth来计算mse约束生成图像,因此会产生一些artifacts,还有就是以往的图像转换任务都是one to one 的transform,而雨的不确定性太多,有很多不同的视觉表现。因此文中提出了self-supervised的约束方法,如图:输入带...翻译 2018-12-15 12:20:36 · 1056 阅读 · 1 评论 -
Attentive Generative Adversarial Network for Raindrop Removal from A Single Image论文理解
概述:在去雨的过程中给网络加上了attention提取,让网络能够更好地学到有雨滴部分的差别。网络结构如下:首先使用attention提取网络来获得包含雨滴的图像的attention图像(值在0-1之间,包含雨滴的地方值较大),attention提取网络中使用通过原图与gt相减并进行二值化处理之后获得的mask与网络得到的attention图来计算loss,以此来优化atten...翻译 2018-12-06 16:46:48 · 957 阅读 · 1 评论 -
CycleGAN代码运行问题梳理
参考博客文章:https://blog.csdn.net/c2a2o2/article/details/73338026参考代码链接:https://github.com/architrathore/CycleGAN/问题1.ValueError: Variable Model/g_A/c1/Conv/weights already exists, disallowed. Did you ...转载 2018-08-09 18:03:18 · 3395 阅读 · 0 评论 -
Thoracic Disease Identification and Localization with Limited Supervision论文阅读笔记
原论文:Thoracic Disease Identification and Localization with Limited Supervision关键词:弱监督、多实例学习弱监督:论文中采用的训练数据中只有一少部分是标注了Bounding box的数据,而绝大多数数据仅仅只有分类而没有bbox标签。多实例学习:文中提到,如果一张图片被标注了某种疾病的分类,那么这张图片中肯定...原创 2018-07-16 22:24:02 · 931 阅读 · 0 评论 -
WESPE: Weakly Supervised Photo Enhancer for Digital Cameras论文模型理解
相对于之前的图像质量提升方法,本方法无需和低端质量图像相关的高质量监督数据。训练时只需要提供需要提高到的图像质量参考。x为输入低端质量图像,x通过G之后生成提升后的图像=G(x),再经过一个反向generator生成重构到的低端图,x和再通过vgg19网络得到content loss.训练过程中,训练G和F使得content loss 足够小y是输入的高质量图像,将和y经过高斯加噪(blur)之后...原创 2018-04-24 15:51:41 · 2967 阅读 · 0 评论 -
YOLOv3在训练自己数据集时的速度慢问题
YOLOv3以速度快著称,但是在训练自己的数据集时发现尽管在命令中同时开启了多块gpu,但速度仍旧很慢。按照其他人的训练日志可以看出64batch的单gpu训练,每次迭代大约需要不到1秒但是自己在训练时却需要好几个小时,首先想到的是自己的数据集是否图片分辨率太高,比较之后发现差不多,而且在开启多尺度训练(设置detector中的random=1)后问题并没有解决。控制影响因素:GPU的数量、bat...原创 2018-04-17 10:32:04 · 17852 阅读 · 19 评论 -
caffe在make过程中的问题解决
下载完caffe安装包,在make时出现了1.nvcc warning : The 'compute_20', 'sm_20', and 'sm21' architectures are deprecated, and may be removed in a future release (Use -Wno-deprecated-gpu-targets to suppress warning).解...原创 2018-03-12 15:39:39 · 576 阅读 · 0 评论