最近研究发现新型攻击方式 可骗过多个人工智能模型

人工智能虽然非常强大,不过正如任何计算机系统,都会有缺点和漏洞。最近有研究发现,如果找出一个成功骗过人工智能模型的攻击方法,可在另一人工智能模型奏效。

意大利 University of Cagliari 及美国 Northeastern University 研究人员最近于 arXiv 刊登的胜博发星座论文指出,常见用来欺骗人工智能神经网络的攻击,一旦发现在一个人工智能模型有效,在其他人工智能模型也同样有效,变相让攻击者可先在风险较低的人工智能模型测试,找到有效的方式后再实际于资安较严格的地方使用。

研究人员表示,这种可转换性让攻击者针对完全不同而未知的模型进行有效攻击,对现在越来越普及的人工智能系统是危险的现象。特别是当现在信息更透明公开,攻击者了解目标系统的架构,并采用相关开源模型测试也越来越容易。他们也在论文提及如何避免这情况,让系统设计者更小心,避免遭受攻击。

转载于:https://my.oschina.net/u/3906919/blog/3014520

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值