3. 机器学习问题攻略

文章探讨了在机器学习任务中遇到的Loss问题,包括训练数据和测试数据的Loss分析。当Loss过大可能是模型过于简单或优化不足。过拟合是导致测试数据Loss大的原因之一,可以通过增加训练数据、数据增强、正则化、Dropout等方法来缓解。同时,交叉验证是确保模型泛化能力的有效手段,用于调整模型并选择最佳的损失函数。
摘要由CSDN通过智能技术生成

机器学习任务攻略

image-20221231152008517

检查Training data 的Loss

  1. Loss太大

    • Model Bias

      • 模型太简单

        重新设置Model:增加Feature

    • Optimization做的不好

      Gradient Descent 找不到Global Minima

    Model Bias VS. Optimization Issue

    简单模型的Loss比复杂模型的Loss还小:Optimization Issue

  2. Loss不大

    • Testing data的Loss小

      完美

    • Testing data的Loss大

      • 过拟合

        1. 增加训练资料

          Data augmentation

        2. 限制模型

          减少参数,共享参数,Less features,Early stopping,Regularization,Dropout

          限制也不能太多会出现Model Bias

          image-20221231155615141

          Cross Validation:

          Training Set分成:

          • Training Set

          • Validation Set

            调整模型,选择最小的Loss

          怎么分:

          N-fold Cross Validation:

          image-20221231174113284

      • Mismatch

        训练资料、测试资料的分布不同

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值