神经网络
cqy不是cqy
还没想想好
展开
-
基于优化的对抗样本生成算法
深度学习在训练过程中,通过计算样本的预测值与真实值之间的损失函数,之后在反向传递的过程中通过链式法则调整模型的参数,不断减小损失函数的值,迭代计算出模型的各层参数。生成对抗样本的基本过程也可以参考这一过程,不同的是在迭代训练过程中,将网络参数固定下来,把对抗样本当做唯一需要训练的参数,通过反向传递过程调整对抗样本import torchimport torchvisionfrom torchvision import datasets, transformsfrom torch.autograd原创 2020-10-25 22:59:49 · 1151 阅读 · 0 评论 -
对抗样本的线性生成和神经网络的非线性
深度学习对于对抗样本表现得脆弱性产生的原因前言:最先推断性的解释是深度神经网络的高度非线性特征,以及纯粹的监督模型中不充分的模型平均的正则化所导致的过拟合实验结果:在lan Goodfellow在ICLR2015年的论文中,通过一个线性模型加入对抗干扰,发现模型的输入拥有足够的维度,线性模型也对对抗样本表现出明显的脆弱性,驳斥了关于对抗样本因为模型的高度非线性的解释。结论:深度学习对抗样本是由于模型的线性特征。线性模型和非线性模型的区别线性模型时可以用曲线拟合样本,但是分了跌决策边界一定是直线的原创 2020-10-25 22:17:56 · 549 阅读 · 0 评论