![](https://img-blog.csdnimg.cn/bc336637652b448f8fc8d27b5c266661.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
开放集领域自适应
文章平均质量分 91
整理开放集域适应的论文笔记,使得自己有所感悟
shawchan9
吉林大学计算机系研究生,人工智能方向
展开
-
开放集(七)Adversarial Reciprocal Points Learning for Open Set Recognition
训练过程分为两个阶段:第一阶段包括两个损失,即算法1:1)第一个损失是分类损失,目的是最大化任意类别样本与与该类互换点(非类区域)的距离,也就是最大化样本成为自身所属类的概率。2)第二个损失是开放空间损失,目的是使,降低开放空间风险。(即使得开放空间尽可能的小)第二阶段,包括三个损失:1)第一个损失是分类器损失,见eq 19,其目的是为了对已知类进行分类,同时使生成的未知类距离未知空间尽可能近(因而距离已知类就尽可能远)。原创 2023-04-03 21:17:15 · 1300 阅读 · 0 评论 -
开放集(四) Towards Novel Target Discovery Through Open-Set Domain Adaptation
图1.对提出的框架进行说明:Xt包含Xs的一些看不见的类别。以卷积神经网络(如ResNet[16])为骨干,提取视觉特征Xs/t,输入GZ,通过部分对齐学习域不变特征 Zs/t。然后 GA将 Zs/t映射到语义属性As。最后的分类任务融合了视觉-语义特征,一个是D,从目标数据中识别可见/不可见,另一个是C,将所有跨域数据识别为k +1个类(即k个可见+1个不可见的大类别)。图1所示目标发现框架同时从源域中观察到的类别中识别目标域数据,并从源域中恢复未知目标类的可解释语义属性。原创 2023-03-12 15:50:44 · 233 阅读 · 0 评论 -
开放集(二)Open set domain adaptation:ATI
本文的内容相对简单容易理解,主要的思想都在图2的(b),©两步中。(b)这一步是将目标样本 t 进行,选择距离 t 最近的源域类中心 c,便是 t 所属的类别;同时也要兼顾到目标样本 t 的所有邻居节点 t’,若邻居 t’ 被分配给了另一个类 c’,则,可理解为因为 t 与 t’ 是邻居,所以需要使得二者所属的类尽可能地相似靠近。(c)这一步就是通过最小化相同类别标记的源域和目标域样本的距离来将。算法过程为在(b)(c)之间反复迭代,直到收敛。原创 2023-03-01 14:04:55 · 294 阅读 · 0 评论 -
开放集(一)Open Set Domain Adaptation: Theoretical Bound and Algorithm
这一篇论文感觉十分偏理论,我感觉只是理解了个大概。1.第一步是使用OSNN(开放集最近邻)算法对目标域样本进行标签预测。通过公式(12)得到一个优化后的分类器h。2.计算矩阵L,W。L为拉普拉斯矩阵,可写成D − W, D为对角矩阵,Dii = j=1到 ns+nt 对Wij求和,W矩阵为样本相似度矩阵。3.迭代过程。每一次迭代中,(1)计算MMD矩阵M;(2)通过式(21)计算 β;(3)β的转置×K得到的结果为新一轮更新的目标域伪标签的值。原创 2023-02-27 22:34:37 · 988 阅读 · 1 评论