Proactive Privacy-preserving Learning for Retrieval 论文笔记

论文名称Proactive Privacy-preserving Learning for Retrieval
作者Peng-Fei Zhang (University of Queensland)
会议/出版社AAAI 2021
pdf📄在线pdf
代码
无代码
  • 概要:

    • 本文提出了一种针对检索系统隐私保护的方法,称为 PPL。训练一个生成器,在 original data 的基础上生成 adversarial data。adversarial data 在特征空间中要保持原本的相似性结构,并且最大化original data 和 adversarial data 之间的差距。
  • 背景:

    • 加入隐私保护后,恶意用户无法随意搜索,也无法收集 database 里的数据构建模型

      在这里插入图片描述

    • 具体来说就是:无法使用干净数据作为 query 在对抗性数据构建的 database 上进行检索,无法使用对抗性数据作为 query 在干净数据构建的 database 上进行检索

      • 在这里插入图片描述
    • clean domain 和 adversarial domain 需要具有:

      • 特征空间中相同的 similarity structure (pdf)
      • 最大化两个领域之间的 gap
  • 方法:

    • 训练一个用于生成 adversarial data 的 generater

    • 在这里插入图片描述

    • loss function

      • generation process

        z i = x i + G ( x i ; ϑ g ) z_{i}=x_{i}+\mathcal{G}\left(x_{i} ; \vartheta_{g}\right) zi=xi+G(xi;ϑg)
        s.t. ∥ G ( x i ; ϑ g ) ∥ p ≤ ϵ , p ∈ { 1 , 2 , ∞ } \left\|\mathcal{G}\left(x_{i} ; \vartheta_{g}\right)\right\|_{p} \leq \epsilon, p \in\{1,2, \infty\} G(xi;ϑg)pϵ,p{1,2,}

      • Affinity-preserving Loss

        • J o = ∑ i , j = 1 n ∥ h ( z i ) T h ( z j ) − c ⋅ S i j ∥ F 2 \mathcal{J}_{o}=\sum_{i, j=1}^{n}\left\|h\left(z_{i}\right)^{T} h\left(z_{j}\right)-c \cdot S_{i j}\right\|_{F}^{2} Jo=i,j=1nh(zi)Th(zj)cSijF2
        • 保持模型的检索能力额
      • Privacy-preserving Loss

        J p = α D ^ s + β J s + γ J e \mathcal{J}_{p}=\alpha \widehat{\mathcal{D}}_{s}+\beta \mathcal{J}_{s}+\gamma \mathcal{J}_{e} Jp=αD s+βJs+γJe

        • Domain Loss:原理涉及 “(RKHS)”
        • Similarity Loss
        • Matching Loss

        具体细节阅读文章,loss 还有一些原理不太明白,不过该 loss 的主要目的是为了减小两个梁宇之间的差异

    • 训练过程

      • Objective Function

        这里的训练过程是一种对抗性训练方式,the generator is updated to enlarge the gap between the adversarial data and the original data,the surrogate model is trained with the opposing objective that is to maintain the search performance.

        ϑ ^ g = arg ⁡ min ⁡ ϑ g J o ( ϑ g , ϑ f ) − J p ( ϑ g , ϑ f ) \hat{\vartheta}_{g}=\arg \min _{\vartheta_{g}} \mathcal{J}_{o}\left(\vartheta_{g}, \vartheta_{f}\right)-\mathcal{J}_{p}\left(\vartheta_{g}, \vartheta_{f}\right) ϑ^g=argminϑgJo(ϑg,ϑf)Jp(ϑg,ϑf),
        ϑ ^ f = arg ⁡ min ⁡ ϑ f J o ( ϑ g , ϑ f ) + J p ( ϑ g , ϑ f ) . \hat{\vartheta}_{f}=\arg \min _{\vartheta_{f}} \mathcal{J}_{o}\left(\vartheta_{g}, \vartheta_{f}\right)+\mathcal{J}_{p}\left(\vartheta_{g}, \vartheta_{f}\right) . ϑ^f=argminϑfJo(ϑg,ϑf)+Jp(ϑg,ϑf).

      • 对抗性训练的过程运用到了 Gradient Reversal Layer

        • 来自论文-Unsupervised Domain Adaptation by Backpropagation 是关于 domain adaptation 的文章

  • 实验结果:
    在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值