在Machine Learning中,逻辑斯蒂回归(Logistic Regression)是十分经典的方法,简称LR,虽然名字叫回归,但是这是线性分类模型而不是回归模型。这里面涉及到一些知识点,包括极大似然估计,损失函数,梯度下降,正则化等
这篇文章的主要目的,就是通过理论与实践相结合的方式讲解LR模型,在讲解的过程中,加深对LR的理解、相关概念的梳理和应用。这篇文章中需要一些基础的数学知识,如果我没有讲到的请自行百度。这篇文章以《统计学习方法》和AndrewNg的视频为基础,加上《PR&MR》以及网上的资料、论文整理而成。本人能力有限,细节处理上难免有不严谨的地方或者叙述不清的地方,请留言或者发邮件wang_qian010@163.com
逻辑斯蒂(logistic)函数
逻辑斯蒂函数
在数学界有各种各样的分布,比如Gamma分布,二项分布,高斯分布等。利用这些分布的性质,可以解决很多的问题。这里将介绍一种函数,叫逻辑斯蒂函数或逻辑斯蒂曲线,这是一种是一种S型曲线。
定义 设 X 是连续随机变量,
f(x)=F′(x)=e−(x−u)/γγ(1+e−(x−u)/γ)2
式中, μ 为位置参数,