深度学习
文章平均质量分 53
无奈的小心酸
everything is a causal link
QQ:2531817472
展开
-
论文解读之 One-to-Many Network for Visually Pleasing Compression Artifacts Reduction
论文题目:One-to-Many Network for Visually Pleasing Compression Artifacts Reduction这是一篇针对图像压缩恢复的论文,近来的研究大多采用one-to-one的映射模式,利用逐像素的L2 loss进行优化训练,得到的结果往往过于平滑,丢失了较多的图像细节纹理信息,即便得到的结果拥有较高的PSNR,但是在视觉效果上不能令人满意,因此...原创 2018-02-28 12:47:20 · 1011 阅读 · 0 评论 -
caffe中bn层与scale层
转自:https://zhidao.baidu.com/question/621624946902864092.htmlcaffe 中为什么bn层要和scale层一起使用这个问题首先你要理解batchnormal是做什么的。它其实做了两件事。1) 输入归一化 x_norm = (x-u)/std, 其中u和std是个累计计算的均值和方差。2)y=alpha×x_norm +转载 2017-08-14 14:29:16 · 17655 阅读 · 1 评论 -
深度学习 ycbcr的运用
深度学习中,如果针对图像进行处理,通常采用ycbcr对彩色图像进行处理,将得到的结果利用神经网络对Y通道进行神经网络处理,得到处理后的灰色图像,再将彩色信息进行填充,即可得到彩色结果图像1.利用ycbcr对彩色图像进行处理,输出结果的Y通道image=imread('baboon.jpg');image = rgb2ycbcr(image);image1 = im原创 2018-01-22 10:44:27 · 2508 阅读 · 2 评论 -
caffe 保存训练的loss
命令为./build/tools/caffe train --solver examples/DPPN/solver_dct_pixel.prototxt 2>&1| tee mylog/caffe.log首先cd进入caffe根目录执行该命令,examples/DPPN/solver_dct_pixel.prototxt 为执行文件路径mylog/ca原创 2018-01-22 09:42:25 · 555 阅读 · 0 评论 -
HED图像边缘检测-程序运行的问题解决方法
论文全名:[2015](HED_FCN)Holistically-Nested Edge Detection.pdf代码下载地址:https://github.com/s9xie/hed附上一篇个人认为写的比较好的论文笔记:http://blog.csdn.net/u012905422/article/details/52782615注意事项:从github下载下来的程序,是自带c原创 2017-03-02 08:16:49 · 10097 阅读 · 32 评论 -
《Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network》阅读笔记
转自:http://m.blog.csdn.net/Aaron_wei/article/details/76862038本文提出了一种利用生成对抗网络(GAN)对低分辨率单一图像进行超分辨率(super-resolution)的网络结构,作为GAN的一种重要应用,很值得去学习研究。阅读原文点这里。Abstract尽管我们已经利用更快更深的卷积转载 2017-12-18 10:48:12 · 454 阅读 · 0 评论 -
FractalNet: Ultra-Deep Neural Networks without Residuals
转自:http://blog.csdn.net/langb2014/article/details/68068127题目】分形网络:无残差的极深神经网络(FractalNet: Ultra-Deep Neural Networks without Residuals)【作者】芝加哥大学 Gustav Larsson,丰田工大学芝加哥分校 Michae转载 2017-12-18 10:42:36 · 400 阅读 · 0 评论 -
论文见解之RCF:Richer Convolutional Features for Edge Detection
论文名:Richer Convolutional Features for Edge Detectioncode:https://github.com/yun-liu/rcf这是cvpr2017的一篇文章,方向是边界分割,在这个语义分割横行的领域,边界分割的论文已经不多了,不过这篇论文着实不错好的,话不多说,看看论文是怎么做的其实这篇论文算是HED的加强版,原创 2017-12-18 10:37:39 · 9562 阅读 · 0 评论 -
caffe softmax layer
转自:http://blog.csdn.net/shuzfan/article/details/51460895Loss Functionsoftmax_loss的计算包含2步:(1)计算softmax归一化概率(2)计算损失这里以batchsize=1的2分类为例: 设最后一层的输出为[1.2 0.8],减去最大值后为[0转载 2017-12-05 10:39:49 · 440 阅读 · 0 评论 -
hdf5文件读取与写入
转自:http://blog.csdn.net/s151506879/article/details/52073392例:%生成训练数据;clear;close all;%% settingsfolder = 'Train';savepath = 'train.h5';size_input = 33;%输入图像矩阵size_label = 21;转载 2017-11-23 14:54:57 · 6220 阅读 · 5 评论 -
pip 国内源提速
转自:http://blog.csdn.net/jyfu2_12/article/details/76208966经常在使用Python的时候需要安装各种模块,而pip是很强大的模块安装工具,但是由于国外官方默认pip访问速度慢,经常被墙,导致无法安装,所以我们最好是将自己使用的pip源更换一下,这样就能解决被墙导致的装不上库的烦恼。 网上有很多可用的国内镜像源转载 2017-11-06 09:43:30 · 512 阅读 · 0 评论 -
循环神经网络RNN介绍
转自:http://blog.csdn.net/heyongluoyao8/article/details/48636251循环神经网络(RNN, Recurrent Neural Networks)介绍 这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part转载 2018-01-24 10:06:16 · 10433 阅读 · 0 评论 -
论文解读之Perceptual Losses for Real-Time Style Transfer and Super-Resolution
论文名称:Perceptual Losses for Real-Time Style Transfer and Super-Resolution来源: CVPR 2017这是一篇提出一种创新loss处理方式的论文,用来证明结果的实验有2个,分别为图像风格转换和超分辨率,本文中只针对超分辨率进行比较首先,作者提出,超分辨率、图像风格转换、去噪其实都可以归类为 i原创 2018-02-01 16:38:12 · 2765 阅读 · 0 评论 -
FCN网络训练 SIFTFLOW数据集
论文全名:Fully Convolutional Networks for Semantic Segmentation全卷积神经网络 FCN代码运行详解:运行平台:Ubuntu 14.04 + cudnn7步骤1.代码准备:下载新版caffe: https://github.com/BVLC/caffe下载fcn代码: https://gith原创 2017-04-19 11:12:19 · 14410 阅读 · 57 评论 -
caffe中一些layer的作用解释
eltwise:将多个输入进行合并,可选合并方式有:相加,相乘,取最大,如果想实现减法,可以将操作设置为相加,coeff设置为1和-1concat: 以某个axis为准,将多个输出进行组合,与slice相反slice: 以某个axis为准,将输入进行分解为多个输出,与concat相反spilt: 1个输入多个输出,与slice不同的是,每个输出都一样,该层只是将blob复制多份,分给不原创 2018-01-19 16:57:09 · 1095 阅读 · 0 评论 -
caffe slice layer
最近关注了spilt-transform-merge策略,有必要了解下slice layerslice layer用以将 输入(bottom) 分解成 多个输出(top)与split layer 不同的是,spilt是将输入复制多份输出layer { name: "slice" type: "Slice" bottom: "input" top: "output1"原创 2018-01-19 16:48:20 · 1188 阅读 · 4 评论 -
Memory-Efficient Implementation of DenseNets
转自:http://blog.csdn.net/u014380165/article/details/77284905技术报告:Memory-Efficient Implementation of DenseNets 技术报告链接:https://arxiv.org/abs/1707.06990这篇技术报告旨在改进DenseNet模型占用显存较大的问题。DenseNet是一个全转载 2018-01-18 09:23:25 · 362 阅读 · 0 评论 -
MSDNet(Multi-Scale Dense Convolutional Networks)算法笔记
转自:http://blog.csdn.net/u014380165/article/details/78006893论文:Multi-Scale Dense Convolutional Networks for Efficient Prediction 论文链接:https://arxiv.org/abs/1703.09844 代码地址:https://github.com/转载 2018-01-18 09:13:22 · 5777 阅读 · 3 评论 -
DenseNet算法详解
转自:http://blog.csdn.net/u014380165/article/details/75142664论文:Densely Connected Convolutional Networks 论文链接:https://arxiv.org/pdf/1608.06993.pdf 代码的github链接:https://github.com/liuzhuang1转载 2018-01-18 09:11:46 · 4051 阅读 · 0 评论 -
ResNeXt算法详解
转自:http://blog.csdn.net/u014380165/article/details/71667916论文:Aggregated Residual Transformations for Deep Neural Networks论文链接:https://arxiv.org/abs/1611.05431这是一篇发表在2017CVPR上的转载 2018-01-18 09:10:43 · 3598 阅读 · 0 评论 -
DPN(Dual Path Network)算法详解
转自:http://blog.csdn.net/u014380165/article/details/75676216论文:Dual Path Networks 论文链接:https://arxiv.org/abs/1707.01629 代码:https://github.com/cypw/DPNs MXNet框架下可训练模型的DPN代码(如果对你有帮助,记得给个星转载 2018-01-18 09:09:37 · 647 阅读 · 0 评论 -
caffe scale参数
问题描述: 在进行神经网络训练过程中,使用了BN+Scale层 发现将conv层与BN层的学习率置为0,网络结果仍然会变化,发现Scale层也有学习率layer { name: "scale_conv1" type: "Scale" bottom: "conv1" top: "conv1" param { lr_mult:原创 2018-01-18 09:07:55 · 4377 阅读 · 5 评论 -
caffe拷贝权重之Check failed: param_size <= num_param_blobs (2 vs. 1)
caffe程序时候做了一个拷贝权重的操作,报错具体为:F1128 17:26:07.834883 3054 net.cpp:141] Check failed: param_size 我的convolution1的设置为layer { name: "Convolution1" type: "Convolution" bottom: "elt-da原创 2017-11-28 17:35:08 · 2265 阅读 · 0 评论 -
caffe 如何让反向传播不更新某些层
caffe程序中,有时候我们不需要更新某些层,那么我们该怎么做呢?假设共有5个卷积层,conv1,conv2,conv3,conv4,conv5为了方便,假设只有这5个卷积层,没有pool层与relu层卷积层的定义为layer{ name:"conv1" type:"Convolution" bottom: "data" top: "conv1"原创 2017-11-02 11:26:28 · 1910 阅读 · 1 评论 -
个人解析---caffe elewise层
Eltwise层的操作有三个:product(点乘), sum(相加减) 和 max(取大值),其中sum是默认操作。elewise层含有参数coeff,虽然经常省略不写如果实现A-B,则可采用以下方式:layer { name: "eltwise_layer" type: "Eltwise" bottom: "A" bottom: "B" top原创 2017-10-24 08:55:08 · 2819 阅读 · 0 评论 -
caffe中 层的结构配置
转自 http://blog.sina.com.cn/s/blog_78fd98af0102w5lx.html1. Vision Layers1.1 卷积层(Convolution)类型:CONVOLUTION例子layers { name: "conv1" type: CONVOLUTION bottom: "data" top转载 2017-07-27 15:53:20 · 371 阅读 · 0 评论 -
caffe中各种loss函数
转自:http://www.mamicode.com/info-detail-594961.htmlCaffe中的损失函数解析导言在有监督的机器学习中,需要有标签数据,与此同时,也需要有对应的损失函数(Loss Function)。在Caffe中,目前已经实现了一些损失函数,包括最常见的L2损失函数,对比损失函数,信息增益损失函数等等。在这里做一个笔记,归纳转载 2017-08-01 10:14:30 · 2040 阅读 · 0 评论 -
caffe中 对caffemodel进行结构修改并保存
问题综述:利用matlab,在编译matcaffe的前提下,对已有的caffemodel进行结构修改,例如,删除一些层等问题描述:在深度学习过程中,自己的目标任务往往需要基于物体识别等等其他任务的基础上,加上自己的训练数据不足,这就需要我们对已有的网络进行拷贝权重,用自己的数据进行fine-tune,从而达到自己的目的解决方法:首先需要matcaffe,运行以下代码原创 2017-08-01 09:08:10 · 5751 阅读 · 0 评论 -
caffe crop层理解
转自: http://www.cnblogs.com/kunyuanjushi/p/5937083.html在Fully Convolutional Networks(FCN)中,会用到Crop 层,他的主要作用是进行裁切。下面我们举一个例子来说明如何使用Crop 层。 Caffe中的数据是以 blobs形式存在的,blob是四维数据,即 (Batch s转载 2017-07-31 09:28:15 · 1901 阅读 · 0 评论 -
DRRN超分辨率
论文全名:Image Super-Resolution via Deep Recursive Residual Network下载地址:http://pan.baidu.com/s/1hsQk8j6code:https://github.com/CLT29/OpenSALICON这是一篇CVPR2017的关于图像超分辨率的文章,相较于VDSR取得了更好的结果,从结构上看,还是之原创 2017-07-06 14:22:18 · 11272 阅读 · 7 评论 -
Relu函数作用
转自一个知乎问答;https://www.zhihu.com/question/290217681.为什么引入非线性激励函数?如果不适用激励函数,那么在这种情况下每一层的输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(perceptron)了正因为上面的原因,我们决定引入非线性函数作为激励转载 2017-07-06 09:26:05 · 23492 阅读 · 4 评论 -
VDSR超分辨率
论文全名:Accurate Image Super-Resolution Using Very Deep Convolutional Networks下载地址:https://pan.baidu.com/s/1ge2pCWFcode:https://github.com/huangzehao/caffe-vdsr该论文利用残差学习,加深网络结构(20层),在图像的超分辨原创 2017-07-03 17:34:51 · 27992 阅读 · 38 评论 -
caffe-windows直接安装版---编译后的Release
在实验室电脑上完成编译 在个人笔记本上采取博客中所写方法直接添加编译后的Release已经成功实现matcaffe的使用 特此分享编译后的matcaffe如果需要使用cpu版本的matcaffe 可直接下载 无需用VS编译在此分享下自己编译后的 matcaffe的Release 无GPU http://pan.baidu.com/s/1qYnZfnY如果需要使用m原创 2017-06-08 14:43:13 · 4332 阅读 · 12 评论 -
HED测试单张图片示例
论文全名:[2015](HED_FCN)Holistically-Nested Edge Detection.pdf代码下载地址:https://github.com/s9xie/hed附上一篇个人认为写的比较好的论文笔记:http://blog.csdn.NET/u012905422/article/details/52782615关于HED的训练在另一篇博客中已经讲过,原创 2017-04-13 10:14:21 · 7265 阅读 · 17 评论 -
caffe中参数介绍
转自http://www.mamicode.com/info-detail-1368127.htmlcaffe 参数介绍solver.prototxtnet: "models/bvlc_alexnet/train_val.prototxt" test_iter: 1000 # test_interval: 1000 # base_lr: 0.01转载 2017-08-14 14:23:14 · 333 阅读 · 0 评论 -
caffe中各层的作用
转自:http://www.cnblogs.com/yinheyi/p/6070213.htmlcaffe中各层的作用:关于caffe中的solver:cafffe中的sover的方法都有:Stochastic Gradient Descent (type: "SGD"),AdaDelta (type: "AdaDelta"),Ada转载 2017-08-07 14:10:58 · 918 阅读 · 0 评论 -
论文解析之Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Co
论文名: Image Restoration Using Very Deep Convolutional Encoder-Decoder Networkwith Symmetric Skip Connection ------------------2016 NIPS论文针对图像修复方向,提出了一种跳跃链接的残差网络,总体来说论文结构简单,不过有点意思,所以简单说一下:原创 2017-10-30 16:52:58 · 5028 阅读 · 2 评论 -
论文解析之 Wide Residual Networks
论文名: Wide Residual Networkscode: https://github.com/szagoruyko/wide-residual-networks引言: 随着研究的深入,如今的神经网络发展趋向于更深,更瘦,作者提出一个疑问,神经网络是否越瘦越深则结果越好? 还是说只要能保证参数的数量,训练一个更胖更浅的网络 是否可行?网络结构:其原创 2017-11-08 09:41:38 · 7089 阅读 · 3 评论 -
caffe:Failed to parse NetParameter file
原因: 网络结构的文件,通常为trainval.prototxr文件中存在语法错误,例如符号缺失等语法错误我的错误原因在于,在定义layer时候,少了个引号原创 2017-10-27 08:31:27 · 11873 阅读 · 0 评论 -
论文解读之Feature Pyramid Networks for Object Detection
论文名称:Feature Pyramid Networks for Object Detection这是一篇CVPR2017的文章,提出一种新型的特征金字塔网络,作者是何开明等人首先,文章介绍了特征金字塔,特征金字塔是图像识别领域的一个基础元素,何为特征金字塔?如下图所示:上图就是一个传统的图像金字塔,针对一个输入图像,resize成多个scale,针对原创 2017-10-18 10:25:22 · 3867 阅读 · 2 评论