自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(68)
  • 资源 (1)
  • 收藏
  • 关注

原创 [KDD 2022] FedAttack:一种基于硬抽样的有效隐蔽的联邦推荐中毒攻击

FedAttack: Effective and Covert Poisoning Attack on Federated Recommendation via Hard Sampling联邦学习是一种从分散的用户数据中学习个性化推荐模型的可行技术。不幸的是,联合推荐系统很容易受到恶意客户端的中毒攻击。现有的推荐系统中毒方法主要集中在提高目标项目的推荐机会,由于经济激励。事实上,在现实世界中,攻击者也可能试图降低推荐系统的整体性能。然而,现有的一般FL中毒降低模型性能的方法要么是无效的或不隐藏中毒联邦推荐系

2024-01-29 14:53:45 918

原创 [AAAI 2023] 基于有毒项嵌入的联邦推荐系统无目标攻击及其防御

它的主要思想是上传有毒梯度,将推荐模型的项目嵌入收敛到几个密集的聚类中,这可以让推荐器为同一聚类中的这些接近的项目生成相似的分数,并扰乱排名顺序。在两个公开数据集上的大量实验表明,我们的恶意攻击可以有效地降低FedRec系统的性能而不被检测到,我们的UNION机制可以提高系统对许多非目标攻击的抵抗力,包括我们的恶意攻击。事实上,如果没有有效的防御机制,无针对性的攻击可以持续破坏系统的用户体验,这将导致服务提供商的客户和收入严重损失(Li et al. 2016)。因此,我们增加K的值以使攻击更容易。

2024-01-29 14:31:38 1083

原创 [TII 2023] 基于压缩感知的多级隐私保护方案

物联网的广泛应用在给人们带来便利的同时,也引发了人们对数据采集、分析和共享过程中隐私泄露的担忧。本文提出了一种基于压缩感知的多级隐私保护方法,该方法具有采样压缩、数据隐私保护和数据访问可控等优点。在数据采集端,采用适合于资源受限环境的压缩感知技术,借助判别分量分析对信号进行采样和加密。然后,加密后的数据将及时传输到云端。在云服务上,受CS保护的信号很少向恶意攻击者泄露隐私信息,它们将被两类授权实体访问。一种是具有低权限的半授权用户,其只能从加密数据中获取特征以供后续推理;

2024-01-26 17:26:43 902

原创 [WWW 2019] Trust and Privacy in Knowledge Graphs

然而,从一个朋友的提示,埃德得知,乔治实际上可能是审计公司的所有者之一。请注意,在这种情况下,乔治的隐私规则不仅适用于AuditInc的信息,而且适用于其他人提供的信息,例如,社交网络上的一张照片,其中乔治出现在AuditInc的年度圣诞派对上,标题提到了他作为合伙人之一的角色,或者可能是他脖子上的徽章识别他。[ 8],认为信任是“基于知识的对所接收信息的依赖”,也就是说,代理人仅基于她/他的知识决定信任(或不信任),并且信任的决定意味着依赖于接收到的信息的真实性或依赖于已知的信息来执行某个动作的决定。

2024-01-20 18:05:58 910

原创 [CIKM 2023] 基于会话推荐的双通道多稀疏图注意网络

摘要基于会话的推荐(SBR)最近受到了极大的关注,因为它能够提供个性化的建议的基础上的匿名会话用户的交互序列。SBR面临的挑战主要包括如何利用当前会话以外的信息,以及如何减少会话数据中无关信息对预测的负面影响。为了解决这些挑战,我们提出了一种新的基于图注意力网络的模型,称为多稀疏图注意力网络(MSGAT)。MSGAT利用两个并行通道对会话内和会话间信息进行建模。在会话内通道中,我们利用门控图神经网络执行初始编码,然后通过自注意机制生成目标表示。然后基于目标表示对全局表示进行降噪。

2023-12-08 16:54:20 1111

原创 [NDSS 2023] PPA:针对联邦学习的偏好分析攻击

因此,FL已成为最受欢迎的分布式机器学习技术,并支持广泛的隐私敏感应用,如智能医疗保健,社交网络和无线通信[ 59,45,62,35,42,9]。上述隐私推断攻击都不能分析FL的本地用户数据偏好,这是攻击者感兴趣的最敏感类型的个人信息之一,类似于分析社交网络中的用户[6,53,3,15]。例如,在基于FL的推荐系统[ 54,2,39]中,攻击者会对FL参与者的用户喜欢(不喜欢)的商品感兴趣,因为购物中心的最佳(最差)销售商品是商业竞争对手的吸引力目标。当获得模型敏感性时,元分类器用于预测用户偏好的类别。

2023-12-08 10:25:53 1664

原创 [ndss 2023]确保联邦敏感主题分类免受中毒攻击

在解决我们问题的 FL 方法中,用户将在本地标记新 URL(例如,将 COVID-19 URL 标记为“健康”),在本地重新训练分类器模型,然后将模型更新(而不是标记数据)发送到集中式服务器,该服务器从以下位置收集此类更新:所有用户,编译新版本的模型并将其重新分发给他们。为了衡量客户端的可信度而不在服务器上收集额外的数据,在接下来的部分中,我们将展示如何设计一个强大的聚合方法来根据客户端的历史行为自动生成声誉,这对于真正的基于 FL 的去中心化来说是一种更现实的方法系统作为客户端的浏览器扩展实现。

2023-12-08 10:09:04 1043

原创 [TWC 2023] FedVQCS:基于矢量量化压缩感知的联邦学习

据我们所知,利用矢量量化和降维的好处的本地模型更新压缩从来没有被研究过,尽管它的潜力,提高FL的通信效率和减轻本地模型更新的压缩错误。MNIST和CIFAR-10数据集上的仿真结果表明,所提出的框架提供了超过2.5的分类精度相比,国家的最先进的FL框架时,本地模型更新传输的通信开销小于0.1比特每个本地模型条目。该方向上的代表性方法是在[ 9,10,11,12]中研究的标量量化方法,其中局部模型更新的条目由标量量化器独立量化。通过扩展该方法,在[13,14,15]中还研究了用于通信高效FL的矢量量化方法。

2023-07-21 10:14:55 778 1

原创 [TMC 2023] 群智感知的去中心化压缩数据存储

通过人群感知获取的感测数据通常存储在中央云服务器处,因为涉及大量数据并且感测设备没有足够的空间来存储它们。尽管每个感测设备仅具有有限的存储容量,但是跨越数千个设备的存储的总大小可以是相当大的。鉴于此,本文研究了移动的人群感知系统中的分散存储问题,为基于云的数据存储提供了一种替代方案。通过研究虚拟传感器模型,参与者在目标感测区域中的移动被制定为与该区域相关的数据字段上的随机采样。大量的实验验证了所提出的存储方案在各种人群感知场景下,我们的方案实现了优异的性能方面的招募开销,解码时间和解码准确性。

2023-07-21 10:10:10 84

原创 win11多用户同时远程登录

背景:RDPwrap正常运行,但不能多用户登录。

2023-07-18 11:22:11 1310

原创 [ICASSP 2019] 差分隐私压缩 K 均值

这项工作解决了从大量数据中学习并保证隐私的问题。概述的学习框架建议通过将大规模数据集压缩为广义随机矩的单个向量来处理大规模数据集,然后从中执行学习任务。我们修改标准草图机制以提供差分隐私,使用拉普拉斯噪声的添加与子采样机制相结合(每个时刻都是根据数据集的子集计算的)。数据可以在多个传感器之间划分,每个传感器在本地应用隐私保护机制,在重新组合时产生整个数据集的差异隐私草图。我们将此框架应用于 k 均值聚类问题,为此提供了根据信噪比来衡量该机制的效用,介绍在过去的几十年中,数据集的大小和可用性呈指数级增长。

2023-07-07 11:09:42 173

原创 [TPAMI 2022] 神经网络元学习:综述

与使用固定学习算法从头开始解决任务的传统人工智能方法相反,元学习旨在根据多个学习片段的经验来改进学习算法本身。我们调查了元学习的有前景的应用和成功案例,例如小样本学习和强化学习。通常,元学习是对从任务族中采样的学习事件进行的,从而产生一种在从该族中采样的新任务上表现良好的基础学习算法。元学习已被证明在多任务场景中非常有用,在多任务场景中,从一系列任务中提取与任务无关的知识,并用于改进该系列中新任务的学习。元学习是提炼多个学习片段的经验(通常涵盖相关任务的分布)并利用这些经验来提高未来学习绩效的过程。

2023-07-07 10:21:11 622

原创 [TIFS 2023] 用增强压缩感知做安全模型对比联邦学习

为了解决这些问题,在本文中,我们提出了一个安全的模型对比联邦学习与改进的压缩感知(MCFL-CS)计划,对比学习的动机。此外,我们进行了广泛的实验,使用五个基准数据集下的非IID设置,以证明我们的计划大大优于其他国家的最先进的FL方法在模型的准确性,通信成本,本地时代的数量,可扩展性,异构性和隐私预算。我们基于我们设计的局部网络结构、改进的压缩感知方法和局部差分隐私[7],提出了一种安全、高效、高精度的隐私保护FL框架,不仅保护了所有客户端的隐私,而且提高了非IID设置下的模型精度,大大降低了通信开销。

2023-07-07 09:45:18 462

原创 [IJCAI 2022] 基于个性化掩码的实用安全联邦推荐

联合推荐解决了推荐系统的数据筒仓和隐私问题。目前的联合推荐系统主要利用密码学或混淆方法来保护原始评分不被泄露。然而,前者带来了额外的通信和计算成本,后者损害了模型的准确性。它们都不能同时满足推荐系统的实时反馈和准确的个性化需求。在这项工作中,我们提出了联邦屏蔽矩阵分解(FedMMF),以保护联邦推荐系统中的数据隐私,而不牺牲效率和效果。在更多的细节,我们介绍了新的想法,个性化的面具只从本地数据生成,并将其应用在FedMMF。一方面,个性化口罩为参与者的私人数据提供了保护,而不会损失有效性。

2023-06-06 19:19:12 522

原创 联邦图神经网络:概述、技术和挑战

图神经网络以其处理实际应用中广泛存在的图形数据的强大能力,受到了广泛的研究关注。然而,随着社会越来越关注数据隐私,GNN需要适应这种新常态。这导致了近年来联邦图神经网络(FedGNNs)研究的快速发展。虽然有前途,这个跨学科的领域是非常具有挑战性的感兴趣的研究人员进入。缺乏对这一主题的深入调查只会加剧这一问题。在本文中,我们弥合这一差距,提供了一个全面的调查这一新兴领域。我们提出了一个独特的3层分类FedGNNs文献提供了一个清晰的视图GNNs如何在联邦学习(FL)的背景下工作。

2023-05-24 21:19:16 1355

原创 [CDC 2018] 理解压缩对抗隐私

本文提出了一种新的隐私保护方法,称为压缩对抗隐私(Compressive Adversarial Privacy,CAP),它结合了压缩感知和对抗性学习的优点,可以提高隐私保护性能并抵抗针对数据隐私攻击。CAP方法使用压缩感知来减少数据传输和存储,使用对抗性学习来提高模型的隐私保护性能。

2023-04-28 09:44:57 613

原创 [INFOCOM 2019] NeuralWalk:使用神经网络的在线社交网络中的信任评估

B.信任意见为了实现准确的信任评估,最近采用了基于矢量的信任意见[8],[12],[13],[16]来模拟TSN中用户之间的信任传播和融合。在这些模型中,原始信任关系被认为是三种不同状态的概率分布,即信念、不信任和不确定性。用户可信、不可信或不确定的概率由每个相应状态的观察证据确定。C.

2023-04-27 11:27:08 1111

原创 [TW 2023] 将三图神经网络与多个隐式反馈相结合,用于社交推荐

图神经网络(GNN)已被明确证明在推荐任务中是强大的,因为它们可以捕获高阶用户-项目交互并将其与丰富的属性集成。但是,它们仍然受到冷启动问题和数据稀疏性的限制。利用社会关系辅助推荐是一种有效的做法,但只能适度缓解这些问题。此外,丰富的属性通常不可用,这会阻止 GNN 完全有效。因此,我们建议通过挖掘多个隐式反馈并构建三重GCN组件来丰富模型。我们注意到,用户可能不仅受到他们信任的朋友的影响,还受到已经存在的评级的影响。隐性影响在项目以前的和潜在的评分者之间传播,并且确实会对未来的评级产生影响。

2023-04-14 15:25:30 168

原创 [TSC 2023] SecGNN:隐私保护图神经网络训练和推理作为云服务

图被广泛用于对实体之间的复杂关系进行建模。作为图分析的强大工具,图神经网络(GNN)因其端到端的处理能力而最近受到广泛关注。随着云计算的普及,在云中部署复杂、资源密集型的模型训练和推理服务因其突出的优势而越来越流行。然而,GNN训练和推理服务如果部署在云中,将引发对信息丰富和专有图形数据(以及由此产生的模型)的关键隐私问题。虽然在安全神经网络训练和推理方面已经有一些工作,但它们都专注于处理图像和文本的卷积神经网络,而不是具有丰富结构信息的复杂图形数据。

2023-04-14 14:45:13 757

原创 [TDAES 2023] SecureTVM:基于 TVM 的编译器框架,用于选择性隐私保护神经推理

隐私保护的神经推理有助于保护用户输入数据和模型权重在深度学习模型推理期间不泄露给其他人。为了实现数据保护,推理通常在安全域内执行,最终结果以明文形式显示。然而,与不安全版本相比,在安全域中执行计算会产生大约一千倍的开销,特别是当整个模型所涉及的操作映射到安全域时,这是现有工作采用的计算方案。这项工作的灵感来自迁移学习技术,其中模型层的某些部分的权重是从公开可用的、预先构建的深度学习模型转移而来的,它通过允许我们有选择地对传输模型的各个部分进行安全计算,为进一步提高执行效率打开了一扇门。

2023-04-14 14:36:29 458

原创 [TAI 2023] 推荐系统的隐私保护多视图矩阵分解

随着对数据隐私的日益关注,在联邦学习(FL)框架中对推荐系统进行了试点研究,其中多方在不共享其数据的情况下协作训练模型。这些研究中的大多数都假设传统的FL框架可以完全保护用户隐私。然而,根据我们的研究,在联合推荐系统中的矩阵分解存在严重的隐私风险。本文首先对联合推荐系统4种场景下的服务器重构攻击进行了严格的理论分析,然后进行了综合实验。实证结果表明,FL服务器能够准确推断用户信息>80%基于从 FL 节点上传的梯度。鲁棒性分析表明,我们的重建攻击分析优于随机猜测>30%在拉普拉斯噪音下b≤0.5。

2023-04-11 19:07:12 188 1

原创 [TIFS 2022] FLCert:可证明安全的联邦学习免受中毒攻击

由于其分布式性质,联邦学习容易受到中毒攻击,其中恶意客户端通过操纵其本地训练数据和/或发送到云服务器的本地模型更新来毒害训练过程,从而使中毒的全局模型错误地分类许多不分青红皂白的测试输入或攻击者选择的输入。现有的防御主要利用拜占庭式的联合学习方法或检测恶意客户端。但是,这些防御措施没有针对中毒攻击的可证明的安全保证,并且可能容易受到更高级的攻击。在这项工作中,我们的目标是通过提出FLCert来弥合差距,FLCert是一个集成的联合学习框架,可以证明可以安全地抵御有限数量的恶意客户端的中毒攻击。

2023-04-11 19:01:59 983 1

原创 [?? 2023] 抵抗数据中毒攻击的可证明鲁棒推荐系统

数据中毒攻击欺骗了一个推荐系统,通过向推荐系统中注入精心设计的评分分数,从而做出任意的、攻击者想要的建议。我们设想一个猫捉老鼠的游戏,这样的数据中毒攻击和他们的防御,也就是说,新的防御被设计来防御现有的攻击,新的攻击被设计来打破它们。为了防止这种猫捉老鼠的游戏,我们提出了PORE,本工作是第一个构建可证明的鲁棒推荐系统的框架。PORE可以将任何现有的推荐系统转换为对任何非目标数据中毒攻击的稳健性,其目的是降低推荐系统的整体性能。假设PORE在没有攻击时向用户推荐top-N项。

2023-04-11 18:45:40 643 1

原创 [2022 S&P] Copy, Right? 深度学习模型版权保护的测试框架

深度学习模型,尤其是那些大规模和高性能的模型,训练成本可能非常高,需要大量的数据和计算资源。因此,深度学习模型已成为现代人工智能中最有价值的资产之一。未经授权复制或复制深度学习模型会导致侵犯版权,给模型所有者造成巨大的经济损失,需要有效的版权保护技术。现有的保护技术大多基于水印,将所有者指定的水印嵌入到模型中。虽然能够提供精确的所有权验证,但这些技术是1) 侵入性的,即它们需要篡改训练过程,这可能会影响模型效用或给模型带来新的安全风险;2)容易遭受试图去除/替换水印或对抗性阻止水印检索的适应性攻击;

2023-04-11 15:07:25 1130 1

原创 如何将传统代码加载到GPU中加速

numpy转化为cuda由于numpy比较基础和通用,但是GPU上跑实验必须使用tensor,故还是直接用torch里面的函数更加直接快速,其两者直接的对比整理如下:生成类操作 用途numpytorch随机整数np.random.randint(0,2,(4,3))torch.empty(4,3).random_(0,2)[0,1)均匀分布np.random.rand(3,4)torch.rand(3,4)任意均匀分布np.random.uniform(-1,1,(3,4))torch.empty(

2023-03-14 13:48:28 721

原创 设置Chrome浏览器标签长度&可移动

总是搞忘Chrome浏览器的设置,单独记录一下。Tab Scrolling 标签可以左右移动。

2023-03-10 10:42:29 1076

原创 pycharm中配置conda executable is not found

用conda创建环境后在pycharm里面添加不了。重启之后会自动加载到conda中。省流:最后也没搞明白为什么。

2023-02-20 11:20:06 2652

原创 anaconda创建环境为空、修改默认环境位置

但是还是删不掉,于是直接进入C:\Users\admin修改.condarc文件(默认隐藏的)虽然还是没有删掉c盘的路径,但默认创建环境的位置到d盘了,也算是达成目标。无论是用navigator还是命令行创建环境都无法指定python版本。因为我的这个文件里面是空白的,所以直接手动添加了。这个时候就可以创建指定版本的python了。另外一个问题是想要修改环境的默认位置。希望它创建在d盘,而不是默认的c盘。

2023-02-20 10:18:52 3607 3

原创 NameError: name ‘NAN‘ is not defined

【代码】NameError: name 'NAN' is not defined。

2023-02-13 14:44:05 778

原创 [CCS 2022] 皇帝没有衣服:用于网络安全的AI/ML

最近的一些研究工作提出了基于机器学习(ML)的解决方案,它可以针对广泛的网络安全问题检测网络流量中的复杂模式。然而,由于不了解这些黑箱模型是如何做出决定的,网络运营商就不愿意信任它们并在其生产设置中部署它们。这种不情愿的一个关键原因是,这些模型容易出现不规范的问题,这里定义为未能足够详细地指定模型。不是唯一的网络安全领域,这个问题表现在毫升模型表现出意外的不良行为时部署在现实世界设置,促使越来越多的兴趣开发可解释的毫升解决方案(例如,决策树)为人类人类解释如何给定的黑箱模型的决策。

2023-02-10 10:51:27 562

原创 [future 2022] 基于特征选择的DDoS攻击流分类方法

分布式拒绝服务 (DDoS) 攻击仍然是对在线服务器可用性的巨大威胁。为了抵御攻击,挑战不仅在于检测发生的 DDoS 攻击,还在于识别并阻止攻击流。然而,现有的分类方法无法准确有效地区分攻击流和良性流。在本文中,我们提出了一种名为 SAFE 的 DDoS 攻击流分类系统,以准确快速地识别网络层的攻击流。首先,SAFE 通过删除冗余特征并选择信息量最大的特征来选择最佳特征。其次,提出了一种阈值调整方法来确定每个特征的最佳阈值。最后,一个聚合的基于特征的线性分类器建议对所选特征进行加权以进行分类。

2023-02-10 10:28:08 393

原创 [COMST 2022] 元宇宙的安全隐私问题

元宇宙,作为下一代互联网的一个不断发展的范式,旨在建立一个完全沉浸式、超时空、自我维持的虚拟共享空间,供人类玩耍、工作和社交。在扩展现实、人工智能和区块链等新兴技术的最新进展的推动下,元宇宙正在从科幻小说走向即将到来的现实。然而,严重的隐私侵犯和安全漏洞(继承自底层技术或出现在新的数字生态中)可能会阻碍其广泛部署。与此同时,由于元版本的内在特征,如沉浸式现实主义、超时空性、可持续性和异质性,在元版本安全配置中可能会出现一系列基本挑战(如可扩展性和互操作性)。

2023-01-31 20:25:15 456

原创 [TPAMI 2022] 用深度神经网络解决欠定问题——考虑鲁棒性?

在过去的五年中,深度学习方法已经成为解决各种反问题的最先进方法。在此类方法可以应用于安全关键领域之前,必须对其可靠性进行验证。最近的工作指出了深度神经网络在几个图像重建任务中的不稳定性。类似于分类中的对抗性攻击,结果表明输入域中的轻微失真可能会导致严重的伪影。本文通过对基于深度学习的算法解决欠定逆问题的鲁棒性进行广泛研究,对这一问题提出了新的看法。这包括使用高斯测量的压缩传感以及从傅立叶和氡测量中恢复图像,包括磁共振成像的真实场景(使用 NYU-fastMRI 数据集)。

2023-01-13 15:20:31 1160

原创 [应用智能2022] 面向开放设施的基于 MANET 的推荐系统

如今,大多数推荐系统都基于集中式架构,这可能会导致信任、隐私、可靠性和成本方面的关键问题。在本文中,我们提出了一种用于开放设施的分散式分布式基于 MANET(移动自组织网络)的推荐系统。该系统基于收集有关用户位置的传感器数据的移动设备,以得出用于协同过滤推荐的隐式评级。详细讨论了推导评级并在 MANET 网络中传播它们的机制。最后,大量实验证明了该方法在不同性能指标方面的适用性。在本节中,我们将简要概述分布式上下文感知推荐系统 (CARS) 的方法。

2023-01-11 15:08:23 405

原创 [博士论文]基于图数据的可信赖机器学习

机器学习已经被应用于越来越多影响我们日常生活的与社会相关的场景,从社交媒体和电子商务到自动驾驶汽车和刑事司法。因此,为了避免对个人和社会的负面影响,开发可靠的机器学习方法至关重要。在本文中,我们关注理解和提高图机学习的可信度,这由于图数据的复杂关系结构提出了独特的挑战。特别地,我们认为机器学习模型的可信性在异常情况下是可靠的。例如,机器学习模型在对抗攻击下或在子种群上的性能不应严重退化,分别对应对抗鲁棒性或公平性问题。

2023-01-09 20:07:38 640

原创 安装torch_geometric失败

把文件复制到当前路径。

2023-01-07 10:41:34 436

原创 [SIGIR 2021] Social Recommendation with Implicit Social Influence

https://dl.acm.org/doi/abs/10.1145/3404835.3463043?casa_token=vGdKlqud36gAAAAA:3LSfhkL7D8V0ijXbar4wMsgMPyJSnfBr2ZxIzVmj8_wTPpTVX9EZRV-_npl8zbiPtIzoBDwX2uto

2023-01-05 21:04:41 97

原创 [iotj 2022] 网络内处理还是特征压缩感知?使用无线传感器网络进行结构健康监测的案例研究

在无线传感器网络 (WSN) 的许多特定领域监测应用中,例如结构健康监测 (SHM)、火山层析成像和机器诊断,WSN 中的所有原始数据都需要收集到汇聚点,汇聚点采用专门的集中式算法。然后执行以提取一些全局特征或模型参数。为了在保证全局特征质量的同时减少大规模的原始数据传输,有两种解决方案:一种是网内处理,一般需要将特征提取的集中计算分布到网络中。另一种解决方案是压缩感知 (CS),然后是特征提取(在本文中称为特征 CS)。

2023-01-05 11:14:57 612

原创 [ins 2022] 针对已见和未见群体的群体推荐中的贝叶斯归纳学习

群组推荐是指向一组用户(即成员)推荐物品。在预测相关项目时,模型通常会面临未出现在训练步骤中的未见组。最近,深度神经网络和注意力机制通过聚合用户偏好应用于群组推荐。然而,目前的方法不足以处理看不见的群体(即,转导模型)或难以计算具有成本效益的注意力网络和正则化。在这项研究中,我们提出了新颖的贝叶斯归纳学习方法,称为 IndiG,用于向已见和未见群体提出建议。为了归纳学习,由基于注意力的有效聚合组成的函数分布被用作跨组共享信息。

2023-01-04 19:54:49 309

原创 [SIGIR 2022] Privacy-Preserving Synthetic Data Generation for Recommendation Systems

推荐系统主要基于用户历史交互数据(例如,先前点击或搜索的项目)进行预测。在收集用户行为数据以构建推荐模型时,存在隐私泄露的风险。然而,现有的隐私保护解决方案仅设计用于在模型训练和结果收集阶段解决隐私问题。当直接与组织共享私人用户交互数据或将其发布给公众时,隐私泄露问题仍然存在。为了解决这个问题,在本文中,我们提出了一种用户隐私可控合成数据生成模型(UPC-SDG),该模型基于用户的隐私偏好为用户生成合成交互数据。具体来说,在data层面,我们设计了一个选择模块,从用户交互数据中。

2023-01-04 17:43:17 332

车牌字符(数字英文汉字).rar

二值化图片,背景色为黑,前景色为白。可用于车牌号识别技术中的模板匹配。二值化图片,背景色为黑,前景色为白。可用于车牌号识别技术中的模板匹配。

2020-09-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除