CV
Vic_Hao
这个作者很懒,什么都没留下…
展开
-
Domain Adaption
source domain target domain 源域和目标域往往属于同一类任务,但是分布不同。 根据目标域和源域的不同类型,领域自适应问题有四类不同的场景:无监督的,有监督的,异构分布和多个源域问题。 通过在不同阶段进行领域自适应,研究者提出了三种不同的领域自适应方法:1)样本自适应,对源域样本进行加权重采样,从而逼近目标域的分布。2)特征层面自适应,将源域和目标域投影到公共特征子空间。3...原创 2018-11-11 17:01:17 · 1136 阅读 · 0 评论 -
Python图片处理模块
PIL中所涉及的基本概念有如下几个:通道(bands)、模式(mode)、尺寸(size)、坐标系统(coordinate system)、调色板(palette)、信息(info)和滤波器(filters)。 Reference: https://www.cnblogs.com/chimeiwangliang/p/7130434.html ...转载 2018-11-11 17:17:56 · 305 阅读 · 0 评论 -
Beyond Sharing Weights for Deep Domain Adaptation
本文中心: specializing the network weights outperforms sharing them 依据(假设): domain invariance might very well be detrimental to discriminative power 验证假设的方式: introducing an approach that explicitly models...原创 2018-11-25 23:11:01 · 244 阅读 · 0 评论 -
Pytorch loss: SmoothL1Loss
Huber loss也就是通常所说的SmoothL1 loss: SmoothL1对于异常点的敏感性不如MSE,而且,在某些情况下防止了梯度爆炸。在Pytorch中实现的SmoothL1损失是torch.nn.SmoothL1Loss, x和y可以是任何包含n个元素的Tensor,默认求均值。 ...转载 2019-05-09 15:11:14 · 4857 阅读 · 0 评论 -
DenseNet及torchvision中的实现
ResNets, Highway, Networks, Stochastic depth, DenseNet他们的共同的特点是: They create short paths from early layers to later layers. 他们都在创造一些更短路径,使得前面的层的数据可以通过“捷径”传输到后面的层。 而论文作者也借鉴了这种思想,甚至把它发挥到极致: 在每一层都有连接其他不同...转载 2019-05-10 15:01:22 · 940 阅读 · 0 评论