第十篇:m个样本的梯度下降(Gradient Descent on m Example)

1、损失函数J(w,b)的定义:

                                    

其中,?(?)是训练样本的预测值,即:σ(?(?)) = σ(???(i)+b)

 

2、逻辑回归计算公式:

  1. z=w^{T}x+b;
  2. ?=a=σ(z)=1/(1 + e^{-z});
  3. L(a, y)=-(y*log(a)) + (1-y)log(1-a);

接下来要做的是计算这些微分,并且求出平均值,从而得到全局的梯度值,然后将它应用到梯度下降的算法中;

代码流程如下:

//首先初始化 J,dw1, dw2, db

 

                                    

  • 但这种计算中有两个缺点,也就是说应用此方法在逻辑回归上你需要编写两个for循环。第一个for循环是一个小循环遍历m个训练样本,第二个 for 循环是一个遍历所有特征的for循环。

 

  • 当你应用深度学习算法,你会发现在代码中显式地使用for循环使你的算法很低效,同时在深度学习领域会有越来越大的数据集。所以能够应用你的算法且没有显式的 for 循环会是重要的,并且会帮助你适用于更大的数据集。所以这里有一些叫做向量化技术,它可以允许你的代码摆脱这些显式的 for 循环。
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值