深度学习--网络优化方法

网络优化方法
    梯度下降算法
梯度下降算法是一种寻找使损失函数最小化的方法,从数学上的角度来看,梯度的方向是函数增长速度最快的方向,那么梯度的反方向就是函数减少最快的方向
        在进行模型训练时有三个基础的概念:
1.Epoch:使用全部的数据对模型进行以此完成训练,训练轮次
2.Batch_size:使用训练集中的小部分样本对模型权重进行以此反向传播的参数更新,每次训练每批次样本数量
3.Itation:使用一个Batch数据对模型进行一次参数更新的过程
    反向传播算法(BP算法)
前向传播: 指的是数据输入的神经网络,逐层向前传输,一直到运算到输出层为止.
反向传播:利用损失函数 ERROR, 结合梯度下降算法,依次求各个参数的偏导,并进行参数更新
反向传播对神经网络各个节点的权重进行更新.一个简单的神经网络用来举例:激活函数为 sigmoid

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值