2.10 m个样本的梯度下降法

本文介绍了批量梯度下降法用于优化深度学习模型的成本函数。通过计算每个训练样本的导数并求平均,得出全局梯度,进而更新权重和偏置。在logistic回归中,这种方法涉及两个for循环,一是遍历样本,二是遍历特征,这在大规模数据集上效率低下。在实际应用中,通常会采用向量化操作以提高计算速度。
摘要由CSDN通过智能技术生成

成本函数 J(w,b)的定义 ==>
一个平均值,从i=1到m的损失函数L之和的平均值。其中,这个损失函数L是当算法在样本(x,y)上输出了 ai。
ai是训练样本的预测值,也就是sigmoid(zi)
在这里插入图片描述
在之前,我们做的是对于任意单个训练样本,如何计算导数,即当值有一个训练样本时,计算dw1(i),dw2(i),db(i)。

已知全局成本函数是一个求和的过程,从1到m项的损失函数和的平均值。由此可知 ==>
全局成本函数 J(w,b) 对 w1 的导数 就等于 >
在这里插入图片描述
这个导数看起来复杂,其实在这里插入图片描述
这个部分,在之前就已经计算过,就是如何对单个训练样本进行计算,即
>
在这里插入图片描述
所以,

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值