神经网络
我是小六啊
Hello World!
展开
-
深度学习与神经网络
深度学习,神经网络,多层神经网络,BP,卷积神经网络区别接触神经网络不久,想弄明白“深度学习”与”多层神经网络”的区别,看了几篇博客和知乎回答,总结一下自己的认识 BP是指多层前馈神经网络神经网络包括了多层神经网络(可以当做普通的神经网络)和卷积神经网络 , 而卷积神经网络又属于深度学习中最为重要的算法。 我们这所谓的层指的神经网络的层数,但是并不是层数多了就是深度学习!!“深度学习”原创 2017-08-05 02:24:28 · 2602 阅读 · 0 评论 -
神经网络总结
神经网络的总结发现现在每天看点东西都有新的认识,也有对以前知识的从新认识。之前听过张玉宏老师的一些课,今天去看了下他在云栖社区的一些深度学习系列文章,其中有介绍神经网络的发展历史,这个老师挺幽默的,理论一大堆,不管什么反正都能说出个一二三,但是感觉文章有时候太宽泛,感兴趣的可以去看下,附上老师文章的链接。 一入侯门“深”似海,深度学习深几许(入门系列之一)机器学习机器学习的两层作用(1)面向过原创 2017-08-08 03:50:52 · 4754 阅读 · 0 评论 -
BP神经网络样本数多少有什么影响 ?
BP神经网络样本数有什么影响学习神经网络这段时间,有一个疑问,BP神经网络中训练的次数指的网络的迭代次数,如果有a个样本,每个样本训练次数n,则网络一共迭代an次,在n>>a 情况下 , 网络在不停的调整权值,减小误差,跟样本数似乎关系不大。而且,a大了的话训练时间必然会变长。 换一种说法,将你的数据集看成一个固定值, 那么样本集与测试集 也可以按照某种规格确定下来如7:3 所以如何看待 样原创 2017-08-08 05:04:54 · 34094 阅读 · 1 评论 -
神经网络初级认知笔记
神经网络笔记今天想到了神经网络的激活函数 tanh,sigmoid 它们的不同,找了以下资料sigmoidSigmoid函数由下列公式定义其对x的导数可以用自身表示: 函数图像 值在【0,1】之间 tanh双曲正切函数 其对x的导数可以用自身表示: 函数图像 值在【-1,1】之间神经网络入门知识点由一个神经元构成的神经网络将多个神经元组合一起组成一个大的神经网络我们使用圆圈来表示原创 2017-08-06 15:48:52 · 486 阅读 · 0 评论 -
神经网络的具体的认识-TensorFlow的好玩的神经网络
好玩的神经网络今天发现了一个可以“观察”的神经网络的例子,分享一下好玩的神经网络增加自己的感性认识 具体操作可以请参考网站的介绍通过训练自己的网络 有几点感触神经网络的隐藏层数 越多 , 每层的节点数 越多 训练的就越慢!!! 所以也是在构建网络之前要进行处理,尽量使训练网络所需时间减少,如一些主成分分析,归一化,等 。之前我有个疑问就是,它的层数 跟每层的节点数怎么确定,原创 2017-08-06 16:08:10 · 1409 阅读 · 0 评论