深度学习记录--logistic回归函数的计算图

计算图用于logistic回归函数

先回顾一下单一样本的logistic回归损失函数的公式,公式如下:

将logistic函数用计算图表示出来(以两个基础量为例),计算图如下:

前向传播已经完成,接下来完成后向传播

运用链式法则依次求出 \frac{\partial \pounds }{\partial a}\frac{\partial \pounds }{\partial z},\frac{\partial \pounds }{\partial wi}(i=1,2),\frac{\partial \pounds }{\partial xi}(i=1,2),\frac{\partial \pounds }{\partial b}

补充梯度下降法--更新变量

当把每个变量的导数求出后,就可以使用梯度下降法进行变量更新

梯度下降法公式:var:= var-\partial d(var),其中 \partial 为学习速率(learning rate)

每次更新var迭代计算

m个样本的梯度下降

少量样本的logistic计算图求完后,可以推广到m个样本的计算图

成本函数公式:J(w,b)=\frac{1}{m}\sum_{i=1}^{m}\pounds (_a{i},_y{i})

每个导数求和之后求平均值(除以m)

代码实现

使用for循环来对m个样本进行后向传播计算

同时在for循环内部嵌套for循环来对i个基础量进行求和

在外层for循环结束后进行基础量的迭代

这样完成简单的迭代算法代码实现

不足之处

两个for循环在大量的样本数据面前,会使迭代时间大大增加,算法效率及其低下

向量化的出现能够很好地解决这个问题

  • 6
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值