![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CNN
文章平均质量分 54
澍yeah
知识的搬运工
展开
-
学习
http://staff.ustc.edu.cn/~dongeliu/dlc.html1、github上很多简单的代码可以先熟悉CNN网络整体的训练预测流程,然后再搞复杂一点的网络,刚刚董老师说的那本电子书为参考。 2、https://www.tensorflow.org/api_docs/ 这里可以查常用的函数 还有一些公众号收藏可以分享给你...原创 2018-06-20 19:30:24 · 151 阅读 · 0 评论 -
going deeper with convolution
转:https://blog.csdn.net/zhangjunhit/article/details/53410260CVPR 2015本文针对 ILSVRC14 提出了一个名叫 Inception 的深度卷积网络架构,主要是通过充分利用网络内的计算资源来提升网络性能,具体是通过在增加网络的宽度和深度同时控制住计算量来实现的。小尺寸滤波器组合 + 1*1滤波器降维1 Introduction 最...转载 2018-07-09 13:28:44 · 246 阅读 · 0 评论 -
Deep Residual Learning for Image Recognition
转:https://blog.csdn.net/wspba/article/details/57074389Deep Residual Learning for Image Recognition(译)仅供参考,如有翻译不到位的地方敬请指出。论文地址:Deep Residual Learning for Image Recognition译文地址:http://blog.csdn.net/wspb...转载 2018-07-09 14:23:38 · 220 阅读 · 0 评论 -
tf.pad()
转:https://blog.csdn.net/banana1006034246/article/details/76585355说明:关于 tf.pad(...) 函数网上的解释和官网都让你看不懂,自己理解整理如下,希望可以帮到需要的人,以下内容只关注0扩展边界函数原型:tf.pad(input, paddings, name=None)input : 代表输入张量padding : 代表加的...转载 2018-07-09 20:21:47 · 7371 阅读 · 2 评论 -
TensorFlow卷积 示例给出关于之间的差的概述 SAME 和 VALID
TensorFlow卷积 示例给出关于之间的差的概述 SAME 和 VALID :对于 SAME 填充,输出高度和宽度计算如下:out_height = ceil(float(in_height)/ float(strides [1]))out_width = ceil(float(in_width)/ float(strides [2]))和对于 VALID 填充,输出高度和宽度计...原创 2018-07-09 21:00:03 · 240 阅读 · 0 评论 -
正则化Batch normalization及其在tensorflow中的实现
转:https://blog.csdn.net/Leo_Xu06/article/details/79054326Batch normalization(BN)BN是对输入的特征图进行标准化的操作,其公式为: x^=γ(x−μ)/σ2+ϵ−−−−−√+βx^=γ(x−μ)/σ2+ϵ+βxx - 原输入x^x^ - 标准化后的输入μμ - 一个batch中的均值σ2σ2 - 一个batch中的方差ϵ...转载 2018-07-10 11:36:23 · 285 阅读 · 0 评论 -
tf.layers.batch_normalization()
tf.layers.batch_normalization(inputs=x, axis=-1,momentum=0.99, epsilon=0.001)原创 2018-07-10 11:51:02 · 2340 阅读 · 0 评论 -
降噪、超分辨率RED-Net之Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetr
使用具有对称跳过连接的非常深卷积编码器 - 解码器网络的图像恢复Abstract在本文中,我们提出了一种非常深的完全卷积编码 - 解码框架,用于图像恢复,如去噪和超分辨率。该网络由多层卷积和反卷积运算符组成,学习从损坏图像到原始图像的端到端映射。卷积层充当特征提取器,捕获图像内容的抽象,同时消除噪声/损坏。然后使用解卷积层来恢复图像细节。我们建议采用跳跃层连接对称地连接卷积层和反卷积层,训...翻译 2018-08-08 11:31:40 · 8026 阅读 · 8 评论 -
超分辨率技术(Super-Resolution, SR)
转自:https://blog.csdn.net/aBlueMouse/article/details/78710553超分辨率技术(Super-Resolution, SR)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都有重要的应用价值。本文针对端到端的基于深度学习的单张图像超分辨率方法(Single Image Super-Resolutio...转载 2018-08-13 14:06:43 · 96812 阅读 · 4 评论 -
A Convolutional Neural Network Approach for Half-Pel Interpolation in Video Coding一视频编码中半像素插值的卷积神经网络
摘要 - 运动补偿是视频编码中的基本技术,用于消除视频帧之间的时间冗余。为了进一步提高编码效率,已经使用了子像素运动补偿,其需要对分数样本进行插值。视频编码标准通常采用源自信号处理理论的固定插值滤波器。然而,由于视频信号不是静止的,固定插值滤波器可能效率较低。受计算机视觉中卷积神经网络(CNN)的巨大成功启发,我们提出设计一种用于视频编码的基于CNN的插值滤波器(CNNIF)。与以前的研究不同,训...翻译 2018-08-16 10:42:21 · 853 阅读 · 1 评论 -
论文理解 - VGGNet - Very Deep Convolutional Networks for Large-Scale Image Recognition
转:https://blog.csdn.net/zziahgf/article/details/79614822论文理解 - VGGNet - Very Deep Convolutional Networks for Large-Scale Image Recognition[VGG-Paper][原文地址 - Very deep convolutional networks for large-...转载 2018-07-09 12:37:07 · 1051 阅读 · 0 评论 -
论文阅读笔记:VGG:Very Deep Convolutional Networks
转:https://blog.csdn.net/u010579901/article/details/79184464论文下载地址:Very Deep Convolutional Networks for Large-Scale Image Recognition本文主要包含如下内容:论文阅读笔记VGGVery Deep Convolutional Networks主要思想网络结构实验结果 论文...转载 2018-07-09 11:27:37 · 256 阅读 · 0 评论 -
深度学习资源
转:https://blog.csdn.net/Leo_Xu06/article/details/53097567ImageNetAlexNetImageNet Classification with Deep Convolutional Neural Networksnips-page: http://papers.nips.cc/paper/4824-imagenet-classificati...转载 2018-07-09 11:21:21 · 476 阅读 · 0 评论 -
TensorFlow实战实例》的一些错误更正ValueError: Only call `sparse_softmax_cross_entropy_with_logits` with named a
在学习《TensorFlow实战Google深度学习框架》这本书的时候,发现书上提供的代码有一些错误。原因是自己的TensorFlow的版本比较高,相对于书上的版本,一些API都变了,所以有些函数在书中的程序中是错误的,所以程序在运行的时候就会报错。比如:第五章中完整的训练MNIST数据的神经网络模型的程序代码中,直接运行程序的话会遇到以下的错误。首先:ValueError: Only call ...转载 2018-06-30 12:06:32 · 835 阅读 · 0 评论 -
Numpy数据类型转换astype,dtype
转:https://blog.csdn.net/A632189007/article/details/779892871、查看数据类型In [11]: arr = np.array([1,2,3,4,5])In [12]: arrOut[12]: array([1, 2, 3, 4, 5])// 该命令查看数据类型In [13]: arr.dtypeOut[13]: dtype('i...转载 2018-06-30 15:06:15 · 584 阅读 · 0 评论 -
tf.InteractiveSession()和tf.Session()----官方教程
tf.InteractiveSession():它能让你在运行图的时候,插入一些计算图,这些计算图是由某些操作(operations)构成的。这对于工作在交互式环境中的人们来说非常便利,比如使用IPython。tf.Session():需要在启动session之前构建整个计算图,然后启动该计算图。意思就是在我们使用tf.InteractiveSession()来构建会话的时候,我们可以先构建一个s...转载 2018-06-30 15:17:45 · 413 阅读 · 0 评论 -
assert()函数用法总结
assert()函数用法总结 assert宏的原型定义在<assert.h>中,其作用是如果它的条件返回错误,则终止程序执行,原型定义:#include <assert.h>void assert( int expression ); assert的作用是现计算表达式 expression ,如果其值为假(即为0),那么它先向stderr打印一条出错信息,然后通过调用...转载 2018-06-30 15:46:06 · 575 阅读 · 0 评论 -
session.run()
转:https://blog.csdn.net/u012436149/article/details/52908692session.run()【2016.12.28.错误更新:之前对sess.run([train_op, loss])理解有误,已更新成正确版本】session.run([fetch1, fetch2])关于 session.run([fetch1, fetch2]),请看http...转载 2018-06-30 17:11:48 · 11821 阅读 · 0 评论 -
tf.variable_scope( )和tf.get_variable( )在jupyter中的使用
转:https://blog.csdn.net/Liven_Zhu/article/details/80218611写本篇博客的初衷:因本人使用tf.variable_scope()变量域在jupyter多次运行程序时,经常会遇到: Variable …… already exists, disallowed. Did you mean to set reuse=True or reuse=tf....转载 2018-06-25 20:59:48 · 590 阅读 · 0 评论 -
LeNet的详细网络结构
针对MNIST的LeNet结构如下图所示:包含2个卷积层,2个max池化层,2个全连接接层和1个relu层与一个softmax层。下面我来推导一下每层的神经元数目和参数的个数。1、输入层:输入层输入一个28*28的图片。2、卷积层1:该层使用20个5*5的卷积核分别对输入层图片进行卷积,所以包含20*5*5=500个参数权值参数。卷积后图片边长为(28-5+1)/1 = 24,故产生20个24*2...转载 2018-06-19 15:13:03 · 5654 阅读 · 0 评论 -
tf.layers.conv2d
转:https://blog.csdn.net/gqixf/article/details/80519912conv2d(inputs, filters, kernel_size, strides=(1, 1), padding='valid', data_format='channels_last', dilation_rate=(1, 1), activa...转载 2018-07-08 17:24:25 · 1021 阅读 · 0 评论 -
Spatiotemporal visual saliency guided perceptual high efficiency video coding with neural network
时空视觉显着引导感知高效视频编码与神经网络用于优化的感知视频编码系统是在人类视觉系统的不同属性的基础上开发的。基于注意力的编码系统被认为是其中的重要部分。由于计算机性能和视觉算法的进步,表示来自视频信号的感兴趣区域(ROI)的显着图方法已成为可靠的方法。在本研究中,我们提出了一种混合压缩算法,该算法使用深度卷积神经网络来计算空间显着性,然后从压缩域运动信息中提取时间显着性。计算不确定性水平以组...翻译 2018-08-21 10:02:35 · 545 阅读 · 0 评论