学习笔记
文章平均质量分 81
学习笔记,基础知识
001_temp
信息安全专业硕士在读,湖北省网络空间安全学会会员,记录学习内容
展开
-
【学习笔记】AI图像合成、机器遗忘与隐私平衡
在处理复杂开放交互环境时,通常需要跨学科的方法,如系统动力学、复杂性科学、网络科学等,以及先进的技术工具,如模拟、预测分析和人工智能,来理解、预测和管理环境中的动态行为。无参化通常指的是减少或消除机器学习模型中的可训练参数,或者使模型的性能不依赖于大量的参数。需要注意的是,随着AI技术的不断进步,防御技术也需要不断地更新迭代,以应对新的挑战。:大模型拥有数亿、数十亿甚至更多的参数,这些参数是模型在学习过程中通过大量数据学习得到的,用以描述输入数据与输出结果之间的关系。原创 2024-09-06 16:11:36 · 958 阅读 · 0 评论 -
【学习笔记】机器学习
术语术语数据集敏感样本在机器学习中,**敏感样本(Sensitive Samples)**通常指的是那些。这些样本可能包含某些关键信息或特征,使得模型在处理这些样本时表现出与处理其他样本不同的行为或性能。在分类问题中,敏感样本可能包括::这些样本位于不同类别的边界上,对于确定分类边界具有重要影响。模型在处理这些样本时的表现往往决定了其整体性能。:在某些类别中数量较少的样本,由于数量有限,模型可能难以从这些样本中学习到足够的信息。因此,这些样本对于模型的性能提升具有关键作用。原创 2024-05-08 22:44:48 · 986 阅读 · 0 评论 -
【学习笔记】神经网络与深度学习
在传统的深度神经网络中,随着网络层数的增加,梯度在反向传播过程中可能会变得非常小,导致网络难以训练,这就是梯度消失问题。这样,如果残差块中的卷积层学习到的是恒等映射(即输出与输入相同),那么整个块的输出将与输入相同,这使得网络可以更容易地学习到恒等映射。在深度学习中,数据通常以张量的形式进行表示和处理,而张量的维度则描述了数据在各个方向上的大小或者说是数据排列的方式。因此,通道的数量等于卷积核的数量。:残差结构使得网络可以在增加深度的同时保持训练的稳定性和性能,这在传统的深度网络中是难以实现的。原创 2024-05-08 22:43:38 · 626 阅读 · 0 评论 -
【学习笔记】理论基础
在这个过程中,任意随机变量的线性组合都服从正态分布,每个有限维分布都是联合正态分布,并且其本身在连续指数集上的概率密度函数即是所有随机变量的高斯测度。然后,找到这个线性函数的根,作为新的x值,重复这个过程,直到找到足够接近真实根的x值。需要注意的是,牛顿法虽然具有较快的收敛速度,但也可能存在一些问题,如收敛性受初始值影响较大,以及在某些情况下可能无法收敛到正确的解。在数学统计中,Fisher信息有着广泛的应用,如用于贝叶斯统计中的Jeffreys先验的计算,以及用于计算与最大似然估计相关联的协方差矩阵等。原创 2024-05-08 22:43:13 · 261 阅读 · 0 评论 -
【学习笔记】梯度
在机器学习和深度学习中,梯度通常用于。特别是在优化算法中,如梯度下降(Gradient Descent)和其变种(如随机梯度下降、动量梯度下降等),梯度被用来指导参数更新的方向和大小,以最小化或最大化某个目标函数。梯度可以理解为一个向量,它包含了某个函数在每个点上的变化率和变化方向。对于二维图像,梯度可以用一个二维向量表示,向量的方向指向像素点周围变化最快的方向,大小表示强度变化的大小。在图像处理中,通常使用灰度图像进行处理,因此梯度向量的大小可以近似表示图像中的边缘强度。符号:∇θ表示对θ的梯度。原创 2024-05-08 17:23:58 · 531 阅读 · 0 评论 -
【学习笔记】联邦学习
联邦学习是一种在保护数据隐私的前提下,允许多个参与方协作训练机器学习模型的框架。它主要有三种类型:水平联邦学习(Horizontal Federated Learning)、垂直联邦学习(Vertical Federated Learning)和联邦迁移学习(Federated Transfer Learning)。这三种方法都旨在在不共享原始数据的情况下,通过协作训练来提高机器学习模型的性能,同时保护数据的隐私和安全。原创 2024-05-08 16:47:50 · 280 阅读 · 0 评论