- 博客(3)
- 收藏
- 关注
原创 实践方法论(Datawhale X 李宏毅苹果书 AI夏令营)
1.3.1可以先跑一些比较小的、比较浅的网络,或甚至用一些非深度学习的方法,比如线性模型、支持向量机(Support Vector Machine,SVM),SVM 可能是比较容易做优化的,它们比较不会有优化失败的问题.看得到的损失。1.3.3训练数据上面的损失小,测试数据上的损失大,可能是真的过拟合。1.看测试数据结果前,先看训练数据有没有做好。1.3.2只有同样的模型,越做深损失越大,说明优化有问题。1.3如何判定是以上哪个原因。b.可以设一个更大的模型,1.1模型的灵活性不够。a.可以增加更多特征,
2024-09-03 23:28:17 204
原创 Datawhale X 李宏毅苹果书 AI夏令营 线性函数
Hard Sigmoid 函数的特性是当输入的值,当 x 轴的值小于某一个阈值(某个定值)的时候,大于另外一个定值阈值的时候,中间有一个斜坡。这些模型都是把输入的特征 x 乘上一个权重,再加上一个偏置就得到预测的结果,这样的模型称为线性模型(linear model)。基于线性函数局限性,无法表述复杂的y-x关系,则引入分段线性函数。四、参数c、b、w变化对函数的影响,是灵活的函数。五、线性代数(矩阵)的方式表示,列向量。图形:先水平的,再斜坡,再水平的。三、Sigmoid 函数。(更新次数取决于批量)
2024-08-31 23:58:58 366
原创 机器学习基础(DATAwhaleX李宏毅苹果书 AI夏令营)
2.交叉熵(使用不同参数,计算不同损失,画误差表面)3.1训练的两个关键因素1 斜率2学习率(自己设定)3.2局限性:训练到局部最小值,难求最优解。机器学习就是让机器具备找一个函数的能力。1.构建模型(参数/权重/偏置/)3.坡度下降(通过算微分解最优化)分类:回归/分类/结构化学习。
2024-08-27 23:55:09 92
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人