- 博客(8)
- 收藏
- 关注
原创 【论文笔记】机器遗忘:错误标签方法
GDPR要求数据持有者在欧盟居民请求时删除其个人数据,包括用于训练机器学习模型的训练记录。然而,深度神经网络(DNN)容易受到信息泄露攻击,如模型反演攻击和成员资格推断攻击,这可能会泄露原本应该被删除的私人信息。
2024-05-29 20:55:54 1086 1
原创 【论文笔记】贝叶斯深度学习(2020)
本博客相关链接:贝叶斯深度学习(Bayesian Deep Learning)2020 最新研究总结 (qq.com)
2024-05-23 19:59:32 760
原创 【论文学习笔记】When Machine Unlearning Jeopardizes Privacy
在本文中,我们进行了第一次关于调查机器遗忘引起的意外信息泄露的研究。我们提出了一种新的隶属推理攻击,它利用ML模型的两个版本的不同输出来推断目标样本是否是原始模型的训练集的一部分,但不在相应的未学习模型的训练集之外。我们的实验表明,所提出的成员推断攻击取得了较强的性能。更重要的是,我们表明,我们的攻击在多种情况下都优于对原始ML模型的经典成员推断攻击,这表明机器学习的遗忘学习可能会对隐私产生适得其反的影响。我们注意到,对于经典成员度推理表现不佳的广义化 ML 模型,隐私降级尤为显着。我们进一步。
2024-05-11 21:13:07 1087 1
原创 【学习笔记】机器学习
术语术语数据集敏感样本在机器学习中,**敏感样本(Sensitive Samples)**通常指的是那些。这些样本可能包含某些关键信息或特征,使得模型在处理这些样本时表现出与处理其他样本不同的行为或性能。在分类问题中,敏感样本可能包括::这些样本位于不同类别的边界上,对于确定分类边界具有重要影响。模型在处理这些样本时的表现往往决定了其整体性能。:在某些类别中数量较少的样本,由于数量有限,模型可能难以从这些样本中学习到足够的信息。因此,这些样本对于模型的性能提升具有关键作用。
2024-05-08 22:44:48 959
原创 【学习笔记】神经网络与深度学习
在传统的深度神经网络中,随着网络层数的增加,梯度在反向传播过程中可能会变得非常小,导致网络难以训练,这就是梯度消失问题。这样,如果残差块中的卷积层学习到的是恒等映射(即输出与输入相同),那么整个块的输出将与输入相同,这使得网络可以更容易地学习到恒等映射。在深度学习中,数据通常以张量的形式进行表示和处理,而张量的维度则描述了数据在各个方向上的大小或者说是数据排列的方式。因此,通道的数量等于卷积核的数量。:残差结构使得网络可以在增加深度的同时保持训练的稳定性和性能,这在传统的深度网络中是难以实现的。
2024-05-08 22:43:38 590
原创 【学习笔记】理论基础
在这个过程中,任意随机变量的线性组合都服从正态分布,每个有限维分布都是联合正态分布,并且其本身在连续指数集上的概率密度函数即是所有随机变量的高斯测度。然后,找到这个线性函数的根,作为新的x值,重复这个过程,直到找到足够接近真实根的x值。需要注意的是,牛顿法虽然具有较快的收敛速度,但也可能存在一些问题,如收敛性受初始值影响较大,以及在某些情况下可能无法收敛到正确的解。在数学统计中,Fisher信息有着广泛的应用,如用于贝叶斯统计中的Jeffreys先验的计算,以及用于计算与最大似然估计相关联的协方差矩阵等。
2024-05-08 22:43:13 236
原创 【学习笔记】梯度
在机器学习和深度学习中,梯度通常用于。特别是在优化算法中,如梯度下降(Gradient Descent)和其变种(如随机梯度下降、动量梯度下降等),梯度被用来指导参数更新的方向和大小,以最小化或最大化某个目标函数。梯度可以理解为一个向量,它包含了某个函数在每个点上的变化率和变化方向。对于二维图像,梯度可以用一个二维向量表示,向量的方向指向像素点周围变化最快的方向,大小表示强度变化的大小。在图像处理中,通常使用灰度图像进行处理,因此梯度向量的大小可以近似表示图像中的边缘强度。符号:∇θ表示对θ的梯度。
2024-05-08 17:23:58 497
原创 【学习笔记】联邦学习
联邦学习是一种在保护数据隐私的前提下,允许多个参与方协作训练机器学习模型的框架。它主要有三种类型:水平联邦学习(Horizontal Federated Learning)、垂直联邦学习(Vertical Federated Learning)和联邦迁移学习(Federated Transfer Learning)。这三种方法都旨在在不共享原始数据的情况下,通过协作训练来提高机器学习模型的性能,同时保护数据的隐私和安全。
2024-05-08 16:47:50 189
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人