3.2 神经网络基本结构及梯度下降算法

3.2 大白话:神经网络基本结构及梯度下降算法


每个输入层都是和隐藏层相连接的,每个输入的连接是:输入值乘以权重加上的偏置,经过sigmoid function得到下一层的值。

深度学习的深度体现在,隐藏层的多上面。


这张图片是28*28的建立一个两层(输出层不计算在内)的神经网络:

中间层可以自己设定,输出是几类的,就是几个输出神经元。

隐藏层学到的是从像素数级别到语义级别的一部分特征。

梯度下降算法:
MNIST数据集的图片

代价函数:

y是数据集的标签,x是一个784维度的向量。我们的目的是通过目标函数,训练出来权重和偏置。








更新方程:学习率n是这一步下降的的大小。有可能是局部最优。我们也可以让学习率是变化的,例如在刚开始的时候让他大一些,让他接近最优的时候变小,有助于学习。

接下来用数学推导一下。假设目标函数是C他有两个变量V1和V2



在上述中的v1和v2就是神经网络的w和b。



传统梯度下降算法太慢,一般用的是随机下降算法。


  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值