炼丹
文章平均质量分 82
MaXuwl
这个作者很懒,什么都没留下…
展开
-
论文阅读--Active Learning 样本选择方法总结
因为最近在做和Active Learning 以及Domain Adaptation相关的论文,所以看一些相关的论文,总结了Active Learning种select sample时使用的策略1. Transferable Query Selection for Active Domain Adaptationcommittee: 使用MMM个分类器,这MMM个分类器对样本xxx分类的差异越大,越要选择这个样本。如果一个样本在越靠近决策边界,MMM个分类器对其分类的结果越不一致Qc(x)=∑m原创 2021-10-09 10:44:31 · 1466 阅读 · 1 评论 -
一文梳理optimizer
这几天看了李宏毅的深度学习课程,趁此机会梳理一下优化器(optimizer),并附带pytorch代码前言在介绍优化器前,我们要时刻记得:什么是优化器?或者说优化器的作用是什么?优化器:找到一组 θ\thetaθ 使得 ΣxL(θ;x){\Sigma}_x L(\theta;x)ΣxL(θ;x) 最小。 这里的x是训练的样本,L是定义的损失函数(loss function)下面将优化器分成常见的5个基本优化器和之后根据这5个优化器生出的各种变种。常见的5个基本优化器SGD (Stochasti原创 2021-08-28 14:21:42 · 372 阅读 · 0 评论 -
pytorch实现梯度反转层(Gradient Reversal Layer)
问题在有些任务中,我们需要实现梯度反转层(Gradient Reversal Layer),目的是为了在梯度反向传播时,经过计算图某个节点之后梯度往反向更新(DANN网络中便需要GRL)。pytorch提供了Function用于实现这个方法,但是看网上的博客并没有详细的实现方法的用法。实现方式pytorch中的Functionpytorch自定义layer有两种方式:通过继承torch.nn.Module类来实现拓展。只需重新实现__init__和forward函数。通过继承torch.aut原创 2021-08-09 16:22:45 · 8793 阅读 · 8 评论 -
深度学习卷积反卷积特征图计算
深度学习卷积和反卷积特征图计算原创 2020-08-14 21:08:05 · 287 阅读 · 0 评论