- 博客(10)
- 收藏
- 关注
原创 Datawhale AI夏令营
1.通常的做法是截断预先训练好的网络的最后一层(softmax层),并用与我们自己的问题相关的新的softmax层替换它。3. 如果数据集数量过少,我们进来只训练最后一层,如果数据集数量中等,冻结预训练网络的前几层的权重也是一种常见做法。数据集3 - 数据量大,数据相似度低在这种情况下,由于我们有一个大的数据集,我们的神经网络训练将会很有效。在这种情况下,预训练模型应该是最有效的。数据集2 - 数据量少,数据相似度低在这种情况下,我们可以冻结预训练模型的初始层(比如k层),并再次训练剩余的(n-k)层。
2024-08-14 22:02:36 259
原创 Datawhale AI夏令营
学习了怎么构建数据集、怎么在平台上训练模型,发现同样的数据集即使比别人多训练40轮但效果也没比别人好多少,说明需要改数据集。
2024-08-11 22:35:48 154
原创 3.3.6-PythonWeb框架 - 使用Flask框架操作数据库
原文链接: https://blog.csdn.net/m0_52680439/article/details/134391959
2024-06-22 18:09:08 158 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人