- 博客(6)
- 收藏
- 关注
原创 Datawhale X 李宏毅苹果书 AI夏令营 进阶2.0笔记
输入 x,乘上 W,加上 b,通过激活函数 σ,乘上W′,再加上 b′ 得到向量 yˆ。最常用的优化策略或者优化器,可以看作 RMSprop 加上动量,其使用动量作为参数更新方向,并且能够自适应调整学习率。随着参数的不断更新,让 η (在之前的学习率调整方法中是一个固定值)越来越小。让学习率先变大后变小,至于变到多大、变大的速度、变小的速度是超参数。先把所有的 y 取一个指数(负数取指数后也会变成正的),再对其。(除掉所有 y 的指数值的和)得到 y′。得到 y′,才去计算 y′ 跟 yˆ 之间的距离。
2024-08-31 17:32:25 197
原创 Datawhale X 李宏毅苹果书 AI夏令营 入门2.0笔记
model bias→更有弹性、有未知参数的function这里要采用梯度下降的方法寻找最小loss,因为参数多实际使用梯度下降的时候,会把 N 笔数据随机分成一个一个的批量(batch)把所有的批量都看过一次,称为一个回合(epoch),每一次更新参数叫做一次更新。
2024-08-26 20:07:35 107
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人