- 博客(2)
- 收藏
- 关注
原创 对迁移学习定义的理解
对于刚刚开始入门迁移学习的朋友来说,也许跟我一样对迁移学习定义中的一些概念很难真正理解,总有种模棱两可的感觉。并且紧接着后面会定义不同的迁移学习问题,比如同构迁移学习,异构迁移学习等,因为对迁移学习的定义很模糊,所以很难真正区分这些问题的不同。下面是我的一些看法,仅供参考,毕竟一千个读者就有一千个哈姆雷特。首先来看迁移学习的定义:领域DDD可以通俗理解为一个数据集,不同的数据集就是不同的领域,任务就是各种各样的任务了,比如:分类任务,分割任务,检测任务等等。ddd维特征空间XXX,我的理解是dd.
2020-09-09 23:31:04 668
原创 pytorch中优雅的重置optimizer state
pytorch中,当我们需要重置optimizer时,也许想到的是下面这种做法:opt = optim.Adam(m.parameters(), lr=1e-3下面举个例子来看下import torchimport torch.nn as nnfrom torch import optimimport collectionsm = nn.Linear(3, 1)opt = optim.Adam(m.parameters(), lr=1e-3)out = m(torch.rand(3))
2020-09-09 20:20:25 3238 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人