深度学习
文章平均质量分 75
my_chen_smile
计算机视觉
展开
-
图像超分论文阅读列表 super_resolution_paper_lists
文章目录Up-sample operation[Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network](https://arxiv.org/pdf/1609.05158.pdf)Single image super resolution[2016 CVPR Accurate Image Super-Resolution Using Very Dee原创 2022-04-01 16:38:33 · 2600 阅读 · 0 评论 -
深度学习论文阅读列表
deep_learning_paper_read_lists同步更新与githubhttps://github.com/chenmeiya/deep_learning_paper_read_listsLearning invariace to spatial transformation2015 NIPS spatial transformer networks文章通过替换网络模块,采用无监督的方式使得网络具备空间表达能力,学习对平移、尺度、旋转和其他几何形变保持不变的能力。max-pooling原创 2022-03-28 21:49:14 · 3186 阅读 · 0 评论 -
轻量化网络论文阅读笔记 MobieNets: Effecient Convolutional Neural Networks for Mobile Vision Applications
1. 轻量化网络1.1 轻量化网络的目的通过减小网络的体量,实现在正向推断降低网络运行的时间。其关键在于平衡小网络和算法效果,是性能和效果之间权衡的一种“优化”方法。1.2 轻量化网络的方向大致分为两种压缩现有训练好的网络训练一个小网络2. MobileNets2.1 Motivations"以下纯属个人见解,不代表原文的意思"MobileNet的全文并没有明确的指出文章为什么要设计一个怎么样的网络实现轻量化,前面主要阐述,轻量化网络的重要性和轻量化网络的发展历程。至于作者为什么要设计原创 2020-11-15 17:55:23 · 594 阅读 · 0 评论 -
2017 CVPR Deep Laplacian Pyramid Networks for Fast and Accurate Super-Resolution论文阅读笔记
论文不难,写出来也方便自己复习问题 Problem快速单张图像超分辨率的任务 Single image super-resolution现有方法的问题和动机(Existing methods problems && Motivations)计算复杂:使用预定义的上采样操作对原图像进行处理后作为卷积神经网络的输入,比如双线性插值或者双三次插值等;由于输入的图像尺寸已经等于HR图像的尺寸,增加了后续处理中不必要的冗余计算量;损失函数:现有的方法大都使用L2范数损失函数,不可避免产生模原创 2020-08-02 18:51:57 · 339 阅读 · 0 评论 -
训练后的网络输出为固定值
缘起之前训练好的网络,但是为了硬件移植,其中某些操作需要删除,那么简单,替换一些硬件不支持的操作,重新训练一下就好了,毕竟训练集,数据导入方式,训练代码,测试代码之前都验证了没有什么问题。但是问题来了,简单的训练一次,居然出现了输出结果成为了固定值的问题,从来没有遇得到过困境我是一个dense prediction的问题,输入图像,输出图像。结果输出的图像的每个像素值居然是一个定值。我的天,...原创 2020-01-06 11:02:34 · 1882 阅读 · 1 评论 -
详解 TensorFlow 训练多个loss函数技巧: 训练步骤,冻结部分层
由于以前写的关于冻结层的博客不够详细,给很多读者造成困惑。为补充关于冻结层,训练多个loss的博客,遂给出更详细的过程。原创 2019-05-29 18:04:25 · 10356 阅读 · 15 评论 -
2019 CVPR oral 去模糊论文"DAVANet: Stereo Deblurring with View Aggregation"阅读笔记
19CVPR 结果早就出来了,最近才读到的19年oral的去模糊工作。博主认真的搜了一下18年的CVPR,deblurring 相关的oral为zero,底层图像复原的oral工作也很少。因此,十分兴奋看到deblurring的oral工作。问题文章介绍了一种使用双目视觉实现去模糊的端到端基于深度学习的算法。所谓双目视觉,就是存在左视和右视两张图像。通过结合两张图像的信息,实现去模糊和过程。双...原创 2019-05-23 18:11:10 · 2861 阅读 · 0 评论 -
基于深度学习的图像去模糊(两篇经典的文献阅读笔记)
基于神经网络的动态场景图像去模糊参考文献:2017 CVPR Deep Multi-scale Convolutional Neural Network for Dynamic Scene Deblurring 原文链接:https://arxiv.org/pdf/1612.02177.pdf基于深度学习的方法和传统的优化的方法都提出了对于图像的非均匀模糊问题进行了解决,但对于动态场景的模糊问...原创 2019-01-11 17:17:56 · 20925 阅读 · 10 评论 -
Matconvnet 空洞卷积导致维度错误以及vl_smplenn.m文件修改
MATLAB下使用matconvnet框架,使用空洞卷积时,可能会出现以下错误:错误使用 - 矩阵维度必须一致。出错 Demo_denoising_gray (line 80) output = input - res(end).x;错误的原因在于vl_smplenn.m没有添加空洞卷积。需要进入matconvnet的框架内部,修改vl_smplenn.m。解决方案如...原创 2019-01-04 16:20:20 · 527 阅读 · 1 评论 -
1. tf.nn.conv2d_transpose解决output_shape问题,解决需要固定输出尺寸的问题
tensorflow 使用反卷积的时候有两种方式,一种使用tf.layerstf.layers.conv2d_transpose(inputs, filters, kernel_size, strides=(1, 1), padding='valid', data_format='channels_last', activation=None, use_bias=True, kernel_in...原创 2018-12-07 21:39:56 · 2282 阅读 · 0 评论 -
Batch Normalization理论基础以及tensorflow实现
Batch Normalization 理论Batch Normalization 相当于归一化输出的feature map。理论基础首先在Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift 文中提出,用于消除深度学习中臭名昭著的梯度消失和梯度爆炸的问题。bat...原创 2018-11-11 20:04:18 · 284 阅读 · 0 评论 -
TensorFlow 训练多个loss函数技巧: 训练步骤,冻结部分层(freeze some scopes),从tensorboard检查问题
这两天使用TensorFlow训练一个多个损失函数的网络模型,自己搭建网络,调参训练,由于网络是一个两阶段的网络,具有三个损失函数,其中两个损失函数监督第一个阶段,一个损失函数家督第二个阶段,而且损失函数监督的并不全是最后一层,还有中间层,这需要调整我的训练方式。训练方式先分别训练第一阶段的两个损失函数固定住第一阶段的网络的参数,只训练第二阶段网络参数调整三个loss函数的正则化参...原创 2018-10-23 16:59:10 · 9695 阅读 · 12 评论