Torch
文章平均质量分 71
手口一斤
这个作者很懒,什么都没留下…
展开
-
深度学习loss方法一览-混个眼熟(基于pytorch)
1、torch.nn.L1Loss平均绝对值误差:运算结果与基准之间对应元素之间的差值的绝对值组成的向量;如果使用mean参数,就是求这个向量的均值作为loss,如果是使用了sum就是这个向量的和作为loss;官方文档实现和原理见:https://pytorch.org/docs/stable/generated/torch.nn.CrossEntropyLoss.html#torch.nn.CrossEntropyLoss2、torch.nn.MSELoss均方误差loss:运算.原创 2021-08-18 14:12:40 · 2134 阅读 · 0 评论 -
深度学习学习率调整方法汇总(pytorch)
1、lr_scheduler.LambdaLR将每个参数组的学习速率设置为给定函数的初始lr倍。学习率设置为函数的值;2、lr_scheduler.MultiplicativeLR将每个参数组的学习率乘以指定函数中给定的系数;3、lr_scheduler.StepLR每隔固定的epoch就根据给定的系数衰减一次学习率,Step指的是epoch;4、lr_scheduler.MultiStepLR给定epoch要更改的地方,然后按照指定系数衰减;注意与StepLR的区别在于,epo原创 2021-08-12 14:47:05 · 2380 阅读 · 1 评论 -
深度学习梯度下降优化方法分类汇总
Adadelta algorithm原创 2021-08-12 09:59:44 · 337 阅读 · 0 评论 -
深度学习训练Torch使用到的模块汇总
Torch使用数据载入:class MyDataset(Dataset): # TensorDataset继承Dataset, 重载了__init__, __getitem__, __len__ def __init__(self, imagepath,mytransformer): self.imagepath = imagepath self.transformer = mytransformer def __getitem__(se原创 2021-08-09 17:47:18 · 721 阅读 · 0 评论