神经网络
文章平均质量分 64
笑横野
追寻量子化的思维
展开
-
神经网络初探:什么是神经网络?
神经网络初探:什么是神经网络?x1,x2… 代表输入值(取值在0,1之间),+1代表偏置节点(biased nodes) 节点与节点之间的连边代表权重(weights),偏置节点与节点之间的连边代表偏移量(biases)每一个节点都有一个输出量,对于如下的单个单元 输出量的表达式如下: zy==∑wixi+b11+e−z\color{red}\Huge\begin{eqnarray*原创 2017-09-12 14:24:21 · 363 阅读 · 1 评论 -
Michael Nielsen的神经网络与深度学习入门教程
Michael Nielsen的神经网络与深度学习入门教程作者:Michael Nielsen 这是我个人以为目前最好的神经网络与机器学习入门资料。作者以MNIST为例详细介绍了神经网络中的基本概念,比如梯度下降优化方法,反向传播算法(backpropagation algorithm),以及各种神经网络训练过程中的小技巧,比如初始权重的选择方法,梯度下降方法的进一步改进,选取不同的代价函数原创 2017-09-12 14:27:33 · 9251 阅读 · 2 评论 -
神经网络初探:从数据到参数
神经网络初探:从数据到参数 我们已经知道了什么是神经网络,那么自然而然有一个问题:神经网络拿来干嘛?神经网络有那么多参数我们如何得到?这就是神经网络的核心问题,从数据到参数,这就是:训练! 以手写数字(MNIST数据集)识别为例,接下来介绍下神经网络的训练过程。MNIST数据集包含70000张手写数字图片,每张图片的大小是28乘以28总共784个像素,这784个像素的灰度值(0~1)原创 2017-09-12 14:30:03 · 472 阅读 · 0 评论 -
神经网络初探:反向传播公式的简易证明
神经网络初探:反向传播公式的简易证明 我们已经知道反向传播算法的核心在于求解代价函数对各个参数的偏导,由此我们需要四个公式,前两个公式让我们能够求解每一层的误差δ\delta(errors),后两个公式给出偏导数与误差δ\delta之间的关系,具体如下: δLδl∂C∂b∂C∂w1jk=(aL−y)⊙σ′(ZL)=((wl+1)Tδl+1)⊙σ′(Zl)=δ=al−1kδlj(BP1)(B原创 2017-09-12 16:19:42 · 380 阅读 · 0 评论