Deep Leaning 学习笔记(2)—— 逻辑回归及梯度下降

逻辑回归及梯度下降

逻辑回归:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

L(y,yhat) = sum(y-yhat) —— 损失函数(计算预测值yhat与实际值y的误差)

L(y,yhat) = np.sum(np.abs(y-yhat)) —— python的损失函数实现

逻辑回归一般用到 逻辑回归函数、代价函数、梯度下降。
已上
z                   为 逻辑回归函数
y_hat            为 预测值(预测为1的概率)
L(y,yhat)       为 损失函数lostFunction
L(a,y)             为 代价函数CostFunction,只不过是针对一组样本M = 1来说
1/m * L(a,y)  为 逻辑回归的代价函数

代价函数又称为CostFunction,为误差函数 LostFunction 的 1/m 。
在这里插入图片描述

梯度下降:

针对于J(W)的图像为:

在这里插入图片描述
Repeat:
在这里插入图片描述
其中,在这里插入图片描述又可以直接写作在这里插入图片描述

因此,逻辑回归中的w 和 b的迭代,可以直接写成:
在这里插入图片描述
同时,偏导数符号 一般用于参数多余1个变量的时候,因此J(w,b)严格上来讲应该用偏导数符号来写,而不是小写字母d.

计算图导数

在这里插入图片描述
同时引用一种新的规则,及在代码实现逻辑回归时,我们将 a 点的导数 d(J)/da 用 “da” 来表示。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值