模型优化、正则化、损失函数

本文深入探讨了机器学习中模型优化的关键概念,包括损失函数的作用、正则化的意义以及如何应对过拟合和欠拟合。通过实例解释了损失函数的不同类型,讨论了train_data、validation_data、test_data的划分,并提出了特征选择、正则化和交叉验证等优化方法,最后解释了正则化避免过拟合的原理。
摘要由CSDN通过智能技术生成

一、前言

对于理解机器学习或者深度学习的人来说,需要了解基本的学习框架是什么?无论是聚类、回归,对于参数的求解以及参数的正则化(防止过拟合的措施)来源于什么原理或者基于什么?,这是需要我们理解的。一般而言从误差出发,有式子:
Loss_function=Est_error+Regularization of parameters

下面我们来说说估计误差中的损失函数以及模型优化的手段。

二、常见的损失函数以及应用
这里写图片描述
这里写图片描述
三、train_data、validation_data、test_data之间的联系与区别

对应某个问题,我们获得样本集合data={(x(i),y(i)),i=1…n},备选的模型有很多,分类问题就可以使用决策树、LR、RF、gbdt等,先假设有备选模型的集合为{M1,M2…Mk}.现在问题是选择哪个模型?该模型对应的参数是多少?模型效果怎样?

一般地,data分为两个部分(7:3),一部分作为模型的训练,通常叫做train_data;另外一部分作为模型的测试,通常叫做 test_data。

但是对于多个模型比较或者某个模型它本身具有超参数,此时就需要validation_

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值