一、Day1
(1)pytorch的cross_entropy()损失函数的target参数不是one-hot向量,就是一个数字就行了。比如类别3,就是数字3。
(2)如果使用了预训练模型要冻结backbone,则需要把对应层的grad设置为true,且优化器只传入需要更新的层的参数。
(3)在每个epoch做validation时,将modle的梯度更新设为False后,在train的时候,记得都要设置回True。
(1)pytorch的cross_entropy()损失函数的target参数不是one-hot向量,就是一个数字就行了。比如类别3,就是数字3。
(2)如果使用了预训练模型要冻结backbone,则需要把对应层的grad设置为true,且优化器只传入需要更新的层的参数。
(3)在每个epoch做validation时,将modle的梯度更新设为False后,在train的时候,记得都要设置回True。