机器学习心得(三)

本文介绍了机器学习中遇到的过拟合和欠拟合问题及其解决方案。过拟合可通过增加训练数据、降维、正则化和集成学习来缓解;欠拟合则可以通过添加特征、增强模型复杂度或减少正则化。正则化包括𝐿𝟏和𝐿𝟐正则化,其中𝐿𝟏正则化促使参数稀疏,𝐿𝟏正则化则降低参数范数。最后,文章提到了常见的误差评估指标,如均方误差、平均绝对误差和R方。
摘要由CSDN通过智能技术生成


前言

成功的机器学习应用不是拥有最好的算法,而是拥有最多的数据!


一、过拟合的处理

1. 获得更多的训练数据
使用更多的训练数据是解决过拟合问题最有效的手段,因为更多的样本能够让模型学习到更多更有效的特征,减小噪声的影响。
2. 降维
即丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一
些模型选择的算法来帮忙
3. 正则化
正则化(regularization)的技术,保留所有的特征,但是减少参数的大小(magnitude)
,它可以改善或者减少过拟合问题。
4. 集成学习方法
集成学习是把多个模型集成在一起,来降低单一模型的过拟合风险。

二、欠拟合的处理

1. 添加新特征
当特征不足或者现有特征与样本标签的相关性不强时,模型容易出现欠拟合。通
过挖掘组合特征等新的特征,往往能够取得更好的效果。
2. 增加模型复杂度
简单模型的学习能力较差,通过增加模型的复杂度可以使模型拥有更强的拟合能
力。例如,在线性模型中添加高次项,在神经网络模型中增加网络层数或神经元
个数等。
3. 减小正则化系数
正则化是用来防止过拟合的,但当模型出现欠拟合现象时,则需要有针对性地减
小正则化系数。

三、正则化

1. 𝑳𝟏正则化:实际就是加上了一个 w w w集合中每个值的绝对值的和。
在这里插入图片描述

2. 𝑳𝟐正则化:实际就是加上了 w w w集合中每个值平方的和
在这里插入图片描述

3. Elastic Net网络:把𝑳𝟏正则化和 𝑳𝟐正则化融合起来
在这里插入图片描述

4. 𝑳𝟏正则化和𝑳𝟐正则化对比
在这里插入图片描述
图上面中的蓝色轮廓线是没有正则化损失函数的等高线,中心的蓝色点为最优解,左图、右图分别为𝑳𝟏、𝑳𝟐正则化给出的限制。可以看到在正则化的限制之下, 𝑳𝟐正则化给出的最优解w是使解更加靠近原点,也就是说𝑳𝟐正则化能降低参数范数的总和。 𝑳𝟏正则化给出的最优解w是使解更加靠近某些轴,而其它的轴则为0,所以𝑳𝟏正则化能使得到的参数稀疏化。

四、误差

备注 y ( i ) y^{(i)} y(i) y ^ ( i ) \hat{y}^{(i)} y^(i)分别表示第𝑖个样本的真实值和预测值,𝑚 为样本个数。

1. 均方误差(Mean Square Error,MSE)
在这里插入图片描述2. 平均绝对误差(Mean Absolute Error,MAE)
在这里插入图片描述3. 均方根误差 (Root Mean SquareError,RMSE)
在这里插入图片描述4. R方 [𝑅𝑆𝑞𝑢𝑎𝑟𝑒𝑑(𝑟2𝑠𝑐𝑜𝑟𝑒)]
在这里插入图片描述备注:越接近于1,说明模型拟合得越好;补充三个公式
在这里插入图片描述


总结

本人也才刚刚开始学习,请大家多多包涵。大家在学习机器学习之前可以先学习下线性代数

  • 21
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值