写在前面:由于昨天实验室毕业聚餐,和老师师兄们喝酒耽误了一天,所以没有太多的时间仔细梳理一下逻辑回归,这里就把我以前的笔记 po 出来,由于时间不够,所以公式就没有自己手打,全是图片,等后期有时间后再来优化这篇博客,按自己的理解梳理整个算法,并把公式全部打出来。
文章目录
逻辑回归
和前面线性回归一样,从模型,代价函数和优化算法三个方面来描述逻辑回归算法
1. 逻辑回归模型
逻辑回归从本质上来说就是在线性回归的外面套了一个sigmoid函数,使样本能够映射到[0,1]之间,即为
在二维坐标中的表现是这样的
2. 逻辑回归损失函数
2.1 推导
逻辑回归不是连续的,所以线性回归损失函数定义的经验就用不上了。不过我们仍然可以用最大似然法来推导出我们的损失函数。逻辑回归的代价函数为交叉熵函数:
其中:
2.2 优化
3. 优化算法
梯度下降法
4. 逻辑回归和线性回归的联系和区别
4.1 联系
(1)都属于广义线性回归模型
(2)