机器学习——logistic回归

摘自——吴恩达深度学习视频

此算法适用于二分类问题

一、logistic回归的输出函数

在这里插入图片描述
其中, sigmoid函数的公式 如下:
在这里插入图片描述
在这里插入图片描述

二、logistic回归的代价函数

已知:logistic回归的输出函数:
在这里插入图片描述
上标(i)表示第i个训练样本。
单个样本的损失函数:
在学习logistic回归的参数时,为了保证优化目标是凸优化,不会采用线性回归中的均方误差来表示损失函数。而是定义如下:
在这里插入图片描述
m个样本的代价函数:
在这里插入图片描述

三、logistic回归的梯度下降法

1.单个样本的情况

单个样本的 损失函数 如下:
在这里插入图片描述
参数W和b的更新如下:
在这里插入图片描述
不断迭代,直至找到最优解或接近最优解。
计算图 如下:
在这里插入图片描述
①首先,反向计算出损失函数L(a,y)关于a的导数:
在这里插入图片描述
②损失函数L(a,y)关于Z的导数如下:
其中,sigmoid函数的导数如下:
在这里插入图片描述
所以,损失函数L(a,y)关于Z的导数为:
在这里插入图片描述
③损失函数L(a,y)关于W和b的导数如下:
在这里插入图片描述
④更新参数:
在这里插入图片描述

2.m个样本的情况

已知:代价函数J(W,b)如下:

在这里插入图片描述
在这里插入图片描述

四、logistic回归的向量化形式

目标: 实现logistic回归的向量化计算,从而不用for循环就能实现对于整个数据集梯度下降算法的优化。
定义一个 矩阵X 作为训练输入,维数为(nx,m):
在这里插入图片描述
从而得到 Z 如下:
在这里插入图片描述
在python中代码如下:
Z=np.dot(W.T,X)+b
进而可以 一次性计算所有a:
在这里插入图片描述

五、logistic回归梯度下降法的向量化形式

在这里插入图片描述

注意:要确保等式两边的维数一致,这可以帮助我们确定等式是否正确,而不用太纠结于其中的数学原理。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值