![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 70
sunshinearong
这个作者很懒,什么都没留下…
展开
-
深度学习感悟
神经网络到底理解了什么呢?我认为有两件事是它们理解的。其一,神经网络理解了如何将输入空间解耦为分层次的卷积滤波器组。其二,神经网络理解了从一系列滤波器的组合到一系列特定标签的概率映射。神经网络学习到的东西完全达不到人类的“看见”的意义,从科学的的角度讲,这当然也不意味着我们已经解决了计算机视觉的问题。想得别太多,我们才刚刚踩上计算机视觉天梯的第一步。有些人说,卷积神经网络学习到的对翻译 2017-01-03 09:53:50 · 3371 阅读 · 0 评论 -
深度学习之入门
语言:python常用的库:theano,tensorflow,keras,lasagne,caffetheano:深度学习底层框架,适用于window,linux,python2.7,python3.5tensorflow:深度学习底层框架,以前只适用于linux,现在可以在windows,python3.5,64bit平台运行keras:在theano和tensorflow上封原创 2016-12-26 16:14:45 · 492 阅读 · 0 评论 -
神经网络
神经网络分为:前向传播,后向传播,双向传播等几种,其中的区别是更新权重的方法不同前向传播(FP):需要知道权重的初始值,然后根据公式更新参数即可后向传播(BP):随机初始化参数(不能都为0,否则最后的参数是一样的),根据期望的结果和输出的结果之前的残差利用梯度下降算法更新参数。双向传播:顾名思义,前向传播和后向传播的结合实际应用中一般是前向传播和后向传播一起使用。一般意原创 2016-12-26 19:39:45 · 432 阅读 · 0 评论 -
DNN的几点tips
1)数据变换由于DNN在训练时需要大量的样本数量来获得一个满意的结果,如果图像初始样本过少,最好通过数据变换提升性能。诚然,数据变换是训练之前比不可少的步骤。有很多数据变换的方法,比如将图像水平翻转、随机切割、图像抖动等。而且你可以结果多种不同的处理方法,比如在旋转的同时随机缩放。也可以把颜色空间的H和V映射到0.25~0.4中(灰度值同理),再乘以一个0.7~1.4的因子,再加上一个-0原创 2016-12-28 16:03:54 · 583 阅读 · 0 评论 -
深度解析minist例子(lasagne)
minist例子相当于深度学习中的'hello,world'下面以lasagne中的minist为原型解析:首先需要了解使用的数据集:minist数据集:共有100000张图片,每张图片大小为28X28,通道数为1,如果是彩色图片,通道数为3,图片显示为0~9手写体数字,每张图片仅包含一个数据,训练集为80000张图片,测试集为20000图片。1.加载包:import nump原创 2016-12-29 11:09:24 · 2674 阅读 · 0 评论 -
自编码器(autoencoder)
什么是自编码器?自编码器是一种数据压缩算法,或者说是一种PCA,,但是比PCA更高效,灵活。什么是编码器,解码器?数据压缩算法离不开编码器和解码器,数据压缩使用编码器,解压缩使用解码器。编码器是把高维度数据有损的映射成低纬度数据,减少数据量,要实现这种映射关系需要学习数据间的相关性。解码器和编码器完全相反,是把低维度数据映射成高纬度数据,增加数据量,使经过压缩的数据恢复本来的面貌。原创 2017-01-09 15:12:53 · 4514 阅读 · 0 评论