logistic 回归及用梯度下降法实现logistic回归。

Logistic 回归是一个二分分类的算法。包括正向传播和反向传播两个过程。正向过程计算代价函数,反向过程训练参数。logistic 回归算法可以被看作是一个非常小的神经网络。通过梯度下降法,来训练w或者b,使得代价函数最小化。代价函数是一个凸函数,这样可以找到全局最优解。函数的凸性也是为什么选择在这个函数的原因。函数是凸的,无论从哪一点开始都应该到达同一点。  梯度下降法就是从初始点开始,每次朝最抖的下坡方向走一步

在这里插入图片描述
。从而确定合适的解w使代价函数值j(w)逼近最小值。最抖的方向数学上需要借助偏导数。偏导数的计算是通过数学上的链式求导法则。
1.基本概念 样本,训练集。
在这里插入图片描述
(x,y)代表样本。输x是nx维的特征向量。输出y值是 0或者1.代表第i个样本,m个样本形成整个训练集。m_train训练集样本个数,m_test测试集样本个数。训练集更紧凑的表示形式是将x向量按列堆叠成矩阵。矩阵x,nx(训练集向量)m(训练集个数)。输出y矩阵1m. Python 中x.shap.可以输出矩阵的维度(nx,m). y.shap输出1*m.
好的惯例符号,可以将不同训练样本的数据联系起来。
2.logistic 回归的输出
在这里插入图片描述在这里插入图片描述
logistic回归的输出是 其中。引用的目的是映射到0到1.
3.Logistic 回归的损失函数和代价函数
为了训练线性回归模型中的参数W,b.需要定一个成本函数。我们希望成本函数值越小越好,希望预测值能够接近实际值。代价函数可以用估计值和实际值差的方差描述。但是logisitic算法不采用那种算法。
在这里插入图片描述
在这里插入图片描述
损失函数L用来定义。在这里插入图片描述损失函数是定义在单个训练样本的情况下的。
在这里插入图片描述
在这里插入图片描述
多个训练样本用代价函数描述:
在这里插入图片描述
4.梯度下降法
图中简化一个随机变量,依据每次使得函数向下降最快的方向移动一步,迭代更新求解。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
5.导数的计算----链式求导法则
在这里插入图片描述
在这里插入图片描述
相反的过程。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
dvar你关心的最终变量的导数。
在这里插入图片描述
代码实现中dv/da 记作da.dj/dv 记作dv 就是省略d目标函数。
在这里插入图片描述
一个计算图从左到右计算成本函数j。从右到左计算导数。
计算偏导数来实现logistic的梯度下降法。通过导数流程图来计算梯度。
在这里插入图片描述
其中a是logistic的输出,也就是做出估计。y是样本真实的值(1或者0)。
在这里插入图片描述
更换w1,w2,b的值是损失函数最小。
在这里插入图片描述

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
logistic回归中,梯度下降法是一种常用的优化算法,用于最小化损失函数。梯度下降法的目标是通过迭代更新模型参数,使得损失函数达到最小值。 具体来说,在二项逻辑斯蒂回归中,损失函数通常使用对数似然损失函数。对于每个样本,损失函数的计算可以通过求解负对数似然函数得到。然后,通过计算损失函数对模型参数的偏导数,即梯度,来更新模型参数。 在梯度下降法中,每次迭代都会根据当前参数的梯度方向来更新参数。具体的更新规则可以使用学习率来控制每次迭代的步长。通过不断迭代更新参数,最终可以找到损失函数的最小值,从而得到最优的模型参数。 需要注意的是,在logistic回归中,梯度下降法可以使用批量梯度下降、随机梯度下降或者小批量梯度下降等不同的变种。每种变种都有其优缺点,选择合适的梯度下降法取决于具体的问题和数据集。 总结起来,logistic回归中的梯度下降法是一种通过迭代更新模型参数来最小化损失函数的优化算法。它是一种常用且有效的方法,用于训练logistic回归模型。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* *3* [逻辑斯蒂回归以及它的梯度下降法](https://blog.csdn.net/Alter__/article/details/109449043)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [[飞桨机器学习]逻辑回归(六种梯度下降方式)](https://blog.csdn.net/chenqianhe2/article/details/115009758)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值