李沐老师pytorch笔记

1.关于模型的训练,胖的模型相比深度的模型更加不好训练

2.关于模型的层数理解,只有在有w参数的情况下才属于一层

3.对于激活函数tanh,Sigmoi,ReLu函数

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.鲁棒性:

以下解释来自维基百科
鲁棒性(英语:Robustness)可能指:
在生物学中,
鲁棒性 (进化),指系统在扰动或不确定的情况下仍能保持它们的特征行为。根据所涉及的扰动,可分为突变鲁棒性、环境鲁棒性,等。
突变鲁棒性,在突变时生物体的表型仍保持不变的能力。
稳健性 (形态学)(英语:Robustness (morphology))
鲁棒控制
鲁棒优化
鲁棒决策,一种尽可能对不确定性免疫,并在作出后相当长时间仍看上去不错的决策。
鲁棒统计,即使其假设与产生数据的真实模型不符,依然能良好运作的一种统计技巧。
鲁棒性 (计算机科学)
稳健性 (经济学)
鲁棒性 (化学)又称坚固性 (化学),是指一种物质的化学结构在化学或机械作用下不受损坏的特性。

5.训练集和测试集之间的关系:

训练误差:训练数据集的误差
泛化误差:测试数据集的误差
将训练数据集中取出50%的数量去作为训练数据集,将剩余的50%作为验证数据集
划重点:不要将训练集和测试集弄混,测试集没有标签,通过训练数据集来进行调整超参数,使测试数据集的结果更可观
切记不同将真正的测试集进行多次训练,那相当于你考试把卷子写无数遍!!!

6.k-折交叉验证:

取k个验证集进行验证误差的最小值
假如
sta:数据
val:测试数据
train :训练数据

stastasta
valtraintrain
trainvaltrain
traintrainval

通过更改k的值,此例子k=3,通过使用三次数据将数据充分使用,通过令三次计算的误差取平均,得出的误差作为结果误差,通过调整参数使误差不断减少。
一般k的取值为5或者10.
数据越大,k越小
数据越小,k越大
在这里插入图片描述

7.总结:

一定要动手实践┗|`O′|┛ 嗷~~
图片均来自截取李沐老师的哔哩哔哩直播视频

链接: 动手学pytorch.

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值