自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 对迁移学习定义的理解

对于刚刚开始入门迁移学习的朋友来说,也许跟我一样对迁移学习定义中的一些概念很难真正理解,总有种模棱两可的感觉。并且紧接着后面会定义不同的迁移学习问题,比如同构迁移学习,异构迁移学习等,因为对迁移学习的定义很模糊,所以很难真正区分这些问题的不同。下面是我的一些看法,仅供参考,毕竟一千个读者就有一千个哈姆雷特。首先来看迁移学习的定义:领域DDD可以通俗理解为一个数据集,不同的数据集就是不同的领域,任务就是各种各样的任务了,比如:分类任务,分割任务,检测任务等等。ddd维特征空间XXX,我的理解是dd.

2020-09-09 23:31:04 668

原创 pytorch中优雅的重置optimizer state

pytorch中,当我们需要重置optimizer时,也许想到的是下面这种做法:opt = optim.Adam(m.parameters(), lr=1e-3下面举个例子来看下import torchimport torch.nn as nnfrom torch import optimimport collectionsm = nn.Linear(3, 1)opt = optim.Adam(m.parameters(), lr=1e-3)out = m(torch.rand(3))

2020-09-09 20:20:25 3238 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除