自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

hjimce的专栏

学如逆水行舟,不进则退

  • 博客(6)
  • 资源 (2)
  • 收藏
  • 关注

原创 深度学习(四十)优化求解系列(2)简单理解神经网络求解过程-未完待续

对于神经网络的求解过程BP,其实说白了就是复合函数的求导过程,所以我们需要先复习一下高数复合函数的求导过程。一、复合函数的求导法则1、复合函数:此函数是一个包含了三层映射过程的复合函数,为了跟后面我们所要学习的神经网络优化求解相接轨,我们采用如下映射过程,来表示这样的一个复合函数(相当于一个四层的神经网络前向映射过程):

2016-06-26 20:07:42 2197 1

原创 深度学习(三十九)可视化理解卷积神经网络(2.0)

学习文献:《Visualizing and Understanding Convolutional Networks》——利用反卷积神经网络可视化CNN学习目的:学习CNN可视化,了解CNN每层所学到的特征;学习dense prediction问题专用网络—反卷积神经网络之前已经写过卷积神经网络的可视化,最近做了一个新版总结PPT,同时也讲解了相关经典网络的应用场景,因此在此贴一下,分享给大家。

2016-06-26 11:38:50 7855

原创 深度学习(三十八)卷积神经网络入门学习(2.0)

CNN网络主要组成:卷积层、池化层、全连接层组成,上节所讲MLP只涉及到全连接层,所以我们学习一个CNN,首要的任务就是学习卷积层、池化层。声明:对于CNN来说,卷积层一般包含了两个基本操作:卷积+激活函数层(就像全连接层一样,也包含线性加权组织+激活函数层)。在后续讲解中,为了便于理解网络结构,我们先暂时忽略激活函数映射。

2016-06-26 10:54:58 7653 3

原创 深度学习(三十七)优化求解系列之(1)简单理解梯度下降

最近觉得有必要对深度学习的优化求解方法,以及各种网络的反向求导做一个总结,所以决定写一个系列文章:主要包含:理解梯度弥散、梯度溢出、BP、BPTT,以及RNN、CNN等各种网络层的求导方法,所以本篇文章将从最简单的梯度下降法开始讲起。一、什么是梯度下降法1、数学最小优化问题:已知一个任意函数L(w,x0,y0),x0,y0是个常数,w是自变量;(x0,y0是常数,因此我们也直接把函数写成L(w),我是因为后面为了讲解神经网络所以才把它们写出),L(w,x0,y0)可为任意复杂的函数,比如:

2016-06-05 17:08:20 3245 1

原创 深度学习(四十二)word2vec词向量学习笔记

一、使用原版word2vec工具训练1、到官网到下载,然后选择export 到github2、编译:make3、下载测试数据http://mattmahoney.net/dc/text8.zip,并解压4、输入命令train起来:time ./word2vec -train text8 -output vectors.bin -cbow 1 -size 200 -window 8 -negative 25 -hs 0 -sample 1e-4 -threads 20 -binary 1 -iter

2016-06-02 10:57:56 11030

原创 深度学习(六十)网络压缩简单总结

增加L2权重增加L2权重可以让更多的权重,靠近0,这样每次修剪的比例大大增加。四、从结构上,简化网络计算,这些需自己阅读比较多相关文献,才能设计

2016-06-02 10:56:45 4676 4

递归双边滤波(图像处理)

图像保边缘去噪算法,速度远高于传统双边滤波

2014-11-20

B样条曲线的绘制(c++语言MFC)

运行后,用鼠标输入控制顶点,然后点击菜单栏的生成B样条曲线,即可生成B样条曲线。可生成多条B样条曲线

2013-07-05

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除