神经网络中的梯度下降——Gradient Descent

本文介绍了神经网络中梯度下降的概念,解释了为何它能寻找损失函数的最小值,并详细阐述了前向传播、反向传播以及权重更新的具体过程,旨在帮助理解深度学习模型的优化原理。
摘要由CSDN通过智能技术生成

1 什么是梯度下降

梯度下降可以对神经网络中的成本函数(cost)进行反向传播,通过不断迭代,更新权值w、b,找到损失函数最低点,最终使我们的模型达到更优的效果。

成本函数有几种,不具体介绍,简单记为J(y,\alpha ),这里对模型进行输入X,\alpha是模型训练后得到结果,y是标准答案,模型训练的目的是使输出的结果\alpha更接近标准答案y,即要找到损失函数J(y,\alpha )的最低点。下面是交叉熵(cross entropy)成本函数,不具体介绍

2 梯度下降为什么能找到最低点

见链接。

3 具体过程

这是一个浅层神经网络

单个神经元

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NPC_0001

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值