复杂网络
文章平均质量分 51
心若向阳,何谓悲伤
这个作者很懒,什么都没留下…
展开
-
奇异值的意义及应用
奇异值是数学概念,由奇异值分解得到。假设有一张图片,像素的大小就是矩阵的大小,我们将这个像素矩阵记为A,对A进行奇异值分解,奇异值分解就是将矩阵分解成若干秩一矩阵之和。秩一矩阵指的是秩为一的矩阵。分解后的式子如下:其中等式右边前面的每一项系数σ\sigmaσ就是奇异值,u和v分别表示列向量,我们将奇异值从大到小排列组合成一个新式子,即奇异值大的在前,奇异值小的在后。从前往后取的奇异值越多,图像也越清晰。若我们要存储很多高清图片,但是这些图片所占的内存又较大,我们可以通过舍去奇异值较小的一些项来保持清晰原创 2021-10-24 10:41:28 · 5187 阅读 · 0 评论 -
深度学习中的范数
看来很多资料,将自己所看到的总结如下:L0_00范数:是指向量中非零元素的个数,若用此范数来规则化一个参数矩阵,那就是希望此矩阵中的大部分元素都是零。即L0_00范数可以使矩阵变得稀疏。L1_11范数:L1_11是向量中各个元素的绝对值之和,我们也成1范数为“稀疏规则算子”,意思不言而喻,L1_11范数也会使矩阵变得稀疏,因为L1_11范数是L0_00范数的最优凸近似。一般情况下为了使一个矩阵变得稀疏只用L1_11,一是因为L0_00范数很难优化求解,它是一个NP难题,二是L1_11原创 2021-10-24 10:15:38 · 638 阅读 · 0 评论 -
图对抗攻击及防御算法种类
一、 图对抗攻击按照攻击算法在图中添加扰动的不同阶段,可以将图对抗攻击分为两类,分别为逃逸攻击和投毒攻击。其中逃逸攻击是攻击者构造对抗样本在模型测试简短欺骗目标模型,而投毒攻击是攻击者在模型训练阶段向训练集中注入对抗样本,使得训练后的模型具有误导性。经典的图对抗攻击主要有如下几种:Nettack:利用图卷积网络的梯度信息修改图数据,使得目标节点被错误分类为指定类别。这种攻击方法是对属性图进行攻击的算法。Metattack:利用元学习将图作为优化目标产生用于攻击的图数据。RL-S2V:将强化学习引入原创 2021-10-24 09:54:32 · 3272 阅读 · 0 评论