机器学习里的攻防问题

略谈机器学习里的攻防问题

  本篇是我于半夜失眠之余,顺便写的一篇无聊之作,若有哪位朋友看到此文章,并觉得有辱你的耳目,请原谅我的无心之过。
  本人是大3的学生,已在CSDN上游迹了1年有余,见识了很多大神的经验之谈,对我的学习和兴趣有了巨大的帮助,而且感觉CSDN是个很适合学习交流的地方,也萌生了像之前看到的许多大佬一样记录并分享自己的学习过程的想法。我之前做了半年的有关机器学习方面攻防的学习研究,因此也想把自己到目前所掌握的相关知识记录下来,如果有哪位有缘的同学看到了,欢迎一起交流。
  下面进入正文,在机器学习领域,目前机器学习已经在我们的实际生活之中有了相当广泛的应用,如图像识别,语音识别,无人驾驶,AI智能等等方面,我就不在此多余赘述。
  那么我所研究的机器学习攻防问题是哪方面的问题呢,简单来说,主要是对于神经网络的人工干预下的误分类问题,实际上,神经网络就是一个分类器,如把一张图片中的数字分类成0到9之间的10个类别里面去;在如今的很多具体分类任务中,机器在分类中能达到的效果已经超越我们了人类,但是神经网络从待分类目标中提取出来的信息,再依据这些信息去准确分类的这个分类过程,与人类不尽相同,甚至可以说神经网络学习的过程更低级于我们人类,我们人类的学习过程远远比神经网络复杂得多。废话了这么多,我想说的是有些分类任务中,存在一些人类能正确分类但是机器却会识别错误的情况,依据这样的原理,于是我们就可以做一些对于具有应用意义的神经网络的攻击,使人类能正确判别,但是神经网络却会被骗过。
  例如,在图像识别中,我们对一些图像进行数字化的处理,使人还能正确判别该图像本身是哪一个类别,但是神经网络在该图像加入了人为干扰过后就会错误分类,从而达到了我们想要的攻击效果,举例说明,更加形象具体,如把一个数字1的图片,进行一些处理,如加一些线条使该数字变得潦草,但是我们人还是会认得这是数字1,神经网络尽管原先能识别出这张图片是数字1,但是在经过我们的处理后,就可能会把它归类到2或3之类的不属于1的其他类别中去,这样就使神经网络的分类准确率下降。
  今天先写到这里,下次再接着讲讲一些简单的原理。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值