代码细节分享
文章平均质量分 65
Mr Sorry
这个作者很懒,什么都没留下…
展开
-
困扰我两天的问题:StratifiedShuffleSplit与train_test_split创建的数据集为何训练结果不同?
数据集划分的问题原创 2023-03-30 18:16:32 · 345 阅读 · 1 评论 -
探索loss.backward() 和optimizer.step()的关系并灵活运用
loss.backward() 和optimizer.step()的关系及灵活运用在deep learning的模型训练中,我们经常看到如下的代码片段:loss.backward()optimizer.step()那么,这两个函数到底是怎么联系在一起的呢?loss.backward()的作用我们都知道,loss.backward()函数的作用是根据loss来计算网络参数的梯度,其对应的输入默认为网络的叶子节点,即数据集内的数据,叶子节点如下图所示:同样的,该梯度信息也可以用函数torch.原创 2021-12-20 18:42:39 · 12233 阅读 · 3 评论