【传统机器学习算法—笔记】-逻辑回归

本文介绍了逻辑回归的基础知识,包括二分类、多分类原理,并详细阐述了Sigmod激活函数的作用和逻辑回归的求解过程。此外,还探讨了代价函数、似然函数以及梯度下降在逻辑回归中的应用,同时提及了正则化的概念。
摘要由CSDN通过智能技术生成

版权声明:如果对大家有帮助,大家可以自行转载的。原文链接:

二分类

将一类数据定义为类别1,其余数据为类型2,只需要分类一次。
在这里插入图片描述

多分类

先定义其中一类为类型1(正类),其余数据为负类(rest);接下来去掉类型1数据,剩余部分再次进行二分类,分成类型2和负类;如果有n类,那就需要分类n-1次。
在这里插入图片描述

Sigmod激活函数

g ( z ) g(z) g(z) 代表一个常用的逻辑函数(logistic function)为 S S S形函数(Sigmoid function),公式为:
在这里插入图片描述

合起来,我们得到逻辑回归模型的假设函数:
在这里插入图片描述
Sigmod图像
在这里插入图片描述
g ( z ) g(z) g(z)大于等于0.5时,预测y=1;
g ( z ) g(z) g(z)小于0.5时,预测y=0。

线性回归的函数 h ( x ) = z = w T x , h(x)=z=w^Tx, h(x)=z=wTx,范围是实数集。
而分类预测结果需要得到[0,1]的概率值;
在二分类模型中,时间的几率odds:事件发生与事件不发生的概率之比为 p / 1 − p p/1-p p/1p,称为事件的发生比;
取对数得到: l o g ( p / 1 − p ) log(p/1-p) log(p/1p),而 l o g ( p / 1 − p ) = w T x = z log(p/1-p)=w^Tx=z log(p/1p)=wTx=z
求解得到: p = 1 / ( 1 + e − w T x ) = 1 / ( q + e ( − z ) ) p=1/(1+e^-w^Tx)=1/(q+e^(-z)) p=1/(1+ewTx

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我是DJ—程序员

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值