pytorch学习记录
chainfitness
这个作者很懒,什么都没留下…
展开
-
pytorch 5种学习率调整策略
1.StepLR 2.MultiStepLR 可以手动设置第几个epoch以gammagammagamma的衰减学习率 3.ExponentialLR 4. CosineAnnealingLR 余弦退火的方式调节学习率 5.ReduceLRonplateau 监控某个指标,当这个指标进行了patience次的迭代后没有变化,则以factor衰减学习率 6.LambdaLR 可以通过实现lambda函数以自定义方式进行学习率衰减,好处是灵活,可以给不同的参数组设定特定的学习了调整策略.在模型的fin原创 2021-09-14 13:04:59 · 730 阅读 · 0 评论 -
pytorch dataloader获取数据流程图
DatasetFetcher会将Sampler取出来的索引值拿到.通过调用Dataset取出数据.而Dataset又是通过__getitem__ 方法进行索引取值的.最后将img和label经过collate_fn打包成batch原创 2021-09-12 12:06:08 · 808 阅读 · 0 评论 -
pytorch数据增强汇总
1.裁剪 transforms.CenterCrop 中心裁剪 transforms.RandomCrop 随机裁剪 transforms.RandomReizedCrop 随机大小,长宽比裁剪图片 transforms.FiveCrop 裁剪左上,右上,右下,坐下,中心共五个裁剪目标组成的元组 transforms.TenCrop 裁剪左上,右上,右下,坐下,中心共五个裁剪目标组成的元组,并对这五个目标按指定要求水平翻转或者垂直翻转 2.翻转和旋转 transforms.RandomHor原创 2021-09-11 21:11:43 · 630 阅读 · 0 评论 -
tensor.repeat()
这个函数如函数名一样,是复制函数,参数表示把这个tensor复制成多少个,参数以1,2,3位来解释: 假设a是一个tensor,那么把a看作最小单元: a.repeat(2)表示在复制1行2列a; a.repeat(3, 2)表示复制3行2列个a; a.repeat(3, 2, 1)表示复制3个2行1列个a。 ...转载 2021-08-27 12:04:20 · 2548 阅读 · 1 评论