深度学习
文章平均质量分 93
RYP_S
这个作者很懒,什么都没留下…
展开
-
从单层感知机到LSTM
单层感知机 拥有输入层、隐含层、输出层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。只能处理很简单的函数。 多层感知机(现在叫神经网络NN) 特点:包含多个隐含层; 使用sigmoid和tanh等连续函数模拟神经元对激励的响应; 使用反向传播BP算法来训练; 摆脱了早起离散传输函数的束缚。 图1上下层神经元全部相连的神经网络—原创 2016-06-02 17:18:15 · 3027 阅读 · 0 评论 -
Caffe虐心安装之路
在安装Caffe之前,觉着它好强大好神秘,就想着迫不及待的安装了并亲验一把,并把安装过程完整写下来。 经过两天的煎熬终于安装完了,不过整个过程真的很虐心,坑很多,很多,很多~~~~~欲哭无泪。。。 总是在安装过程中冒出各种各样的问题,以至于整个思路混乱了,真的是很乱了,只好写了以下能记起来的大概过程,几乎成了问题答疑,将就看吧。 ===============================原创 2016-07-01 15:28:18 · 3287 阅读 · 0 评论 -
CNN基础及开发环境搭建(综合参考)
目前,深度学习在解决图像分类,语音识别等问题上获得了已知的最优结果,该系列算法越来越受到学术界和工业界的重视。 何为深度学习?一个直观的解释是如果一个机器学习算法在建模的过程中使用了多层的自动特征表示,则该机器学习算法可以称之为深度学习算法,也就是该机器学习算法可以自动地计算特征的特征表示。而卷积神经网络(以下简称为CNN)则是深度学习中最基础且有效的算法,CNN虽然最早由KunihikoF转载 2016-06-17 17:26:08 · 1861 阅读 · 0 评论 -
Caffe学习系列(12):训练和测试自己的图片
原文:http://www.cnblogs.com/denny402/p/5083300.html 学习caffe的目的,不是简单的做几个练习,最终还是要用到自己的实际项目或科研中。因此,本文介绍一下,从自己的原始图片到lmdb数据,再到训练和测试模型的整个流程。 一、准备数据 有条件的同学,可以去imagenet的官网http://www.image-net.org/download-im转载 2016-07-07 15:17:35 · 974 阅读 · 0 评论 -
ReLu激活函数
起源:传统激活函数、脑神经元激活频率研究、稀疏激活性 传统Sigmoid系激活函数 传统神经网络中最常用的两个激活函数,Sigmoid系(Logistic-Sigmoid、Tanh-Sigmoid)被视为神经网络的核心所在。 从数学上来看,非线性的Sigmoid函数对中央区的信号增益较大,对两侧区的信号增益小,在信号的特征空间映射上,有很好的效果。 从神经科学上来看翻译 2017-08-29 11:02:02 · 1938 阅读 · 0 评论