逻辑斯蒂回归
原理:Sigmoid函数,最大似然估计,梯度下降法
根据现有数据对分类边界线建立回归公式,以此进行分类。这里的“回归” 一词源于最佳拟合,表示要找到最佳拟合参数集。
实现:
1 找一个合适的预测函数,一般表示为h函数(该函数的输出必须是两类值),该函数就是我们需要找的分类函数,它用来预测输入数据的判断结果。这个过程是非常关键的,需要对数据有一定的了解或分析,知道或者猜测预测函数的“大概”形式,比如是线性函数还是非线性函数。
2 构造一个Cost函数(损失函数),该函数表示预测的输出(h)与训练数据类别(y)之间的偏差,可以是二者之间的差(h-y)或者是其他的形式。综合考虑所有训练数据的“损失”,将Cost求和或者求平均,记为J(θ)函数,表示所有训练数据预测值与实际类别的偏差。
3 显然,J(θ)函数的值越小表示预测函数越准确(即h函数越准确),所以这一步需要做的是找到J(θ)函数的最小值。找函数的最小值有不同的方法,Logistic Regression实现时有梯度下降法(Gradient Descent)。
Attibutes
- coef_ : 变量中的系数。shape (1, n_features) or (n_classes, n_features)
- intercept_ :截距。shape (1,) or (n_classes,)
- n_iter_ :所有类的实际迭代次数。shape (n_classes,) or (1, )