李宏毅机器学习P5-8学习笔记

本文探讨了模型误差的两个主要来源——偏差与方差,解释了它们如何影响模型的拟合程度,并提出了通过复杂化或简化模型来平衡两者的方法。此外,还介绍了梯度下降在寻找最优模型中的应用,包括学习率的调整、随机梯度下降的优势以及特征缩放等策略。同时,指出了梯度下降可能遇到的局部最小值、平台期和鞍点问题。
摘要由CSDN通过智能技术生成

P5误差来源

一、误差来源于两方面:

1:偏差—准: 根据样本拟合的模型输出预测结果的期望与样本真实结果的差距,即在样本上拟合的好不好。要求low bias,则需要复杂化模型或增加模型的参数,这容易过拟合(overfitting),过拟合则为high variance,点很分散。

2:方差—确: 样本上训练出来的模型在测试集上的表现,即点的集中性。low varience需要简化模型,减少模型的参数,但容易欠拟合(unfitting),欠拟合则为high bias,点偏离中心,但很集中。

二、模型选择:不能通过training data训练后选择出Error最小的model,因为输入testing data后,选择的model的error并非是最小的。可以选择交叉验证或者N-fold交叉验证进行模型选择。

P6梯度下降

 

梯度下降用于解min(loss function),确定最优model,其中:

1.learning rate可以手动(将参数改变对损失函数的影响进行可视化,根据可视化的图进行调整)或自适应调整(基础思想:随参数更新,LR逐渐减小)。

2.随机梯度下降法,不同于梯度下降法,损失函数不需要处理训练集所有的数据。且常规梯度下降法走一步要处理到所有N个例子,随机算法已经走了N步。(每处理一个例子就更新)

3.特征缩放

4.梯度下降的限制:local minima、plateau、saddle point

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值