PS: Deep Neural Networks Are Easily Fooled___CVPR2015

Deep Neural Networks Are Easily Fooled: High Confidence Predictions for Unrecognizable Images full paper
Anh Nguyen, Jason Yosinski, Jeff Clune

这篇paper的idea我很喜欢,不久的将来基于这篇paper还会产生一些工作。

这篇文章针对的问题是这样的。虽然现在DNN已经在主流分类数据集上已经展示了比传统方法更好的分类性能,但是论文的方法揭示了,我们可以轻而易举的产生一些欺骗DNN的图片:人类看不清是什么,但DNN以99.99%的confidence分类成某一个类别。

在DNN近年来一路唱红的时代,一些没有节操的媒体(当然,还有一些没节操的researcher)说可以去beat human vision。每当看到这个都只能说,呵呵。

好吧,扯多了,说一些细节。论文用了两种方法,一种采用遗传算法,还有一种采用梯度上升。这两种方法都产生出了一张有规律或无规律的图形,但DNN轻易分错的实例。近年来,也有一些paper来探讨类似的问题。具体细节看论文吧,discussion非常值得一看。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值