深度学习自身的安全

本文探讨了AI安全中的重要一环——深度学习自身的安全问题。内容涵盖深度学习平台的复杂性、攻击面,如畸形输入、毒化训练数据和恶意模型,以及DoS攻击、规避攻击等威胁类型。同时,提出了对机器学习环境安全和模型中毒检测的思考。
摘要由CSDN通过智能技术生成

现在AI安全早已成为安全行业的热门词汇了,AI安全包括两个层面,一个用AI解决安全安全行业问题,一个是AI自身的安全问题,平时我们谈AI解决安全安全行业问题比较多,对AI自身安全确少有提及,今天要分享的就是AI自身安全问题,总结了一些前沿的论文,方便大家一目了然。

机器学习(深度学习)的分层实现:

 

主流的深度机器学习平台的复杂度:

存在的攻击面:

  • 输入畸形数据
  • 输入被毒化的训练数据
  • 输入带有攻击恶意模型

报过的漏洞:

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值