ML实践——逻辑回归logistic regression

本文深入探讨了逻辑回归的工作原理,包括其与感知机的区别、Sigmoid激活函数的优势、对数损失函数的选择及其在最大似然估计中的作用。介绍了逻辑回归的代价函数,并提及L2正则化防止过拟合。此外,文章还对比了线性回归与逻辑回归,强调逻辑回归在处理二分类问题上的优势。最后,提到了一般回归模型与指数分布的关系。
摘要由CSDN通过智能技术生成

原理

从图中可以看出与perceptron的异同:

logistic regression model:
回归模型

perceptron:
这里写图片描述

简单地说把Sigmoid function用作activation function。

ϕ(z)=11+ez
ϕ(z)=z

Advantages:
1. Sigmoid function的收敛性更好
2. 逻辑回归是用通过计算一件事情发生的概率来预测事件是否发生

cost function

具体公式推导参见:链接
为什么cost function不再用平方差,而是用对数损失函数?这个问题我纠结了好久,最终在这里
看到一句话

“而在已知模型和一定样本的情况下,估计模型的参数,在统计学中常用的是极大似然估计方法”

所以说,选择的cost function与模型是有一定关系的。我们的log-likelihood function是极大似然函数的对数,我们要取对数?
1. 好求导
2. 防止numerical underflow发生(就是超出编译器里数值表示范围)

log-likelihood function
l(w)=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值