sklearn逻辑回归参数设置_机器学习100天-Day1504训练模型-softmax回归

49b9f0b63ac65fbea9b4fb9b19a524db.png

说明:本文依据《Sklearn 与 TensorFlow 机器学习实用指南》完成,所有版权和解释权均归作者和翻译成员所有,我只是搬运和做注解。 第四章是对模型训练内部工作流程的了解,帮助炼丹师们找到恰当的学习模型、算法、数据集。

为了尽量简单(懒),在这里默认已经了解线性回归、多项式回归、损失函数、梯度下降

1. 简单的线性回归模型,讨论两种不同训练方法的最优解

  • 封闭方程求根运算,得到模型在当前训练集上的最优解。
  • 迭代优化(梯度下降GD),调整模型参数获取最小损失函数。批量梯度下降、随机梯度下降、小批量梯度下降。

2. 多项式回归,用来拟合非线性数据集

  • 介绍正则方式减少过拟合的出现

3. 介绍Logistic回归

4. 介绍Softmax回归

4. 介绍Softmax回归

原理

将逻辑回归推广到多类别分类,就是Softmax回归。

这部分讲得比较系统,从逻辑回归推导到Softmax回归。每一类概率预测公式和线性回归预测公式一样。

bfeb3d89f6365bee5ce79ea4deb4e073.png

但是,因为是多类别分类,每一个分类的参数向量都是独立的,统一存放在参数矩阵Θ中。

在计算了样本中每一类的得分后,通过Softmax函数计算出属于第k类的概率,然后通过除以所有份子总和进行归一化。

419f6c71f30ad0ea308f92aecb522c89.png
  • K表示有多少类
  • S(X)表示包含样本X的每一类的得分向量
  • σ(S(X))k表示给定每一类分数之后,实例X属于第k类的概率 在预测结果中,通过argmax计算函数的最大值,即返回σ(S(X))k最大时k的值。

注意:Softmax回归分类一次只能输出一个类,无法像随机数森林那样同时针对多个输入处理后输出多个结果。在多人面部识别中无法使用。

训练Softmax回归

使用交叉熵进行训练。交叉熵能够应对y=1和y=0两种情况

1232386550b5c34f7688f43ec7470f76.png
  • 然后对交叉熵公式求偏导
3bcab833d095694f462189c211f37747.png

通过计算每一类的梯度向量,使用优化算法使损失函数达到最小值。

使用Softmax回归对iris数据集进行分类

问题来了,在最后的决策边界中,教程里的决策边界在set黄色部分是有转弯的,但是我跑出来的还是线性,

X_multi=iris["data"][:,(2,3)]y_multi=iris["target"]softmax_reg=LogisticRegression(multi_class="multinomial
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值