2022-1-22第三章机器学习基础-回归算法

线性回归

回归问题判定:
目标值为连续性的值
例子
:销售额预测、贷款额度预测、
线性关系:
二维—直线关系
三维:
特征值,目标值,平面中
在这里插入图片描述
在这里插入图片描述
矩阵运算:
np.dot(a,b)
在这里插入图片描述
多变量条件下:真实值与预测值的误差
在这里插入图片描述
回归算法基本都是迭代算法,迭代更新参数
误差的表征:
损失函数
在这里插入图片描述求解最优化权重的方法:
①正规方程—一次性求解(不通用—求解太复杂)
在这里插入图片描述
②梯度下降
在这里插入图片描述
后面算法基本都是通过梯度下降不断迭代进行优化—算法自我学习的过程
正规方程-梯度下降对比
API:
在这里插入图片描述在这里插入图片描述
#仍然需要标准化-标准化后在得到预测结果后一定要反标准化,不然都是标准化的结果很小
在这里插入图片描述

Sklearn:封装好,建立模型简单,预测简单;但是算法过程不可见。
Tensorflow:封装高低都有,可以自己实现
正规方程—梯度下降的差别:

在这里插入图片描述评估方法:
均方误差
API:
在这里插入图片描述
在这里插入图片描述

过拟合欠拟合

过拟合:特征较多,机器学习较多
欠拟合:特征较少,机器学习较少

在这里插入图片描述
模型复杂的原因:
数据的特征和目标值之间是复杂的非线性关系,不仅仅是线性关系

判断依据:
训练集训练结果很好、测试及表现较差—过拟合
训练集测试集结果都很好—欠拟合
解决方法:
①特征选择,消除关联性大的特征(较难做),交叉验证(让所有数据都有过训练),正则化(重点)

正则化:
更新权重过程当中,尽量减小高次项特征的影响
L2正则化:
回归问题解决过拟合的方式
在这里插入图片描述
Ridge:岭回归,
 带有正则化项的线性回归,解决过拟合

API:
在这里插入图片描述
在这里插入图片描述
(alpha超参数,alpha越大,权重越来越小)

在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值