神经网络
文章平均质量分 60
阿华Go
做一个有责任心有上进心的汉子,我要肩负起守护家人的重任!!!
展开
-
卷积神经网络的参数维度(15)---《深度学习》
在写这篇博客之前,提一个奇奇怪怪的问题啦! 问题:如果我们将输入转化为(n,)而不是(n,1),那么此时的每一层的权重w或者偏置b的误差应该怎样求解呢? 为什么会有卷积神经网络单独列出来查看起参数维度呢?其实是因为在使用tf.nn.softmax()的时候遇到问题啦,如下: 我们可以清晰的看到当最后一层的维度是(10,1)的时候,结果和我们预期的结果不是一样的,当最后一层的维度是(10,)原创 2017-10-19 20:41:56 · 1586 阅读 · 0 评论 -
神经网络的层参数维度(14)---《深度学习》
我们了解神经网络中的梯度下降算法,反向传播算法,损失函数等等,现在我们参考Michael Nielsen实现自己的神经网络构建和梯度下降算法和反向传播算法等等的实现!1)mnist数据集的读取:import cPickleimport gzip# Third-party librariesimport numpy as npdef load_data(): """Return the M原创 2017-10-19 20:26:18 · 2720 阅读 · 0 评论