对数几率
交叉熵
多分类(multi-class)
多标签分类(multi-label)
线性回归
二分类问题
从线性回归到逻辑回归
逻辑回归
逻辑回归本质上也是一个线性回归,但使用了更复杂的模型
模型控制输出结果在0到1之间
Logistic Function / Sigmoid Function
模型
sigmoid函数
模型
模型参数估计
极大似然估计
以对数似然函数为目标函数的最优化问题
逻辑回归学习中通用采用梯度下降法、梯度上升法或拟牛顿法
梯度下降法
梯度下降和梯度上升
*交叉熵
交叉熵
交叉熵损失函数经常用于分类问题中,特别是在神经网络做分类问题
函数性质
二元交叉熵
多类别分类
-
二元分类:在两个类别中区分
-
多类别分类 (multi-class classification):区分两个以上的类别
-
多类别分类学习方法
-
有些算法可以直接处理多个类别:
随机森林分类器、朴素贝叶斯分类器 -
有些算法是严格的二元分类器(逻辑回归,感知机,支持向量机),需要用到拆分策略来进行扩展
对问题进行拆分,为拆出的每个二分类任务训练一个分类器
对于每个分类器的预测结果进行集成以获得最终的多分类结果 -
拆分策略
一对其余(One vs. Rest, OvR)或 一对全部One vs. All
一对一(One vs. One, OvO)
一对其余
一对一
两种策略比较
Scikit-learn中的多类别分类
Scikit-learn可以检测到你尝试使用二元分类算法进行多类别分类任务,它会自动运行( OvR )
SVM分类器除外,它会使用OvO
多标签分类
多标签 VS 多分类
softmax回归
scikit-learn中的逻辑回归
详见官方文档
实战
《机器学习实战:基于Scikit-learn和TensorFlow》第三、四章