最大池化是否真的有平移旋转不变性??引自某个问题的评论,还希望有更多的探讨

说出来你们可能不信,没有平移不变性,没有尺度不变性,也没有旋转不变性,我目前的测试和why do deep convolutional networks generalize so poor to small transformation论文基本一致,fashion mnist的数据都是居中的,我给训练集验证集做padding 2,随机裁剪28*28的数据增强,得到0.93的测试准确度,此时所有的测试图片都是居中的,我水平垂直随机平移0 1 2像素,由于训练集见过2个像素偏移的增强图片,所以测试准确率依然在0.92,然而,当随机偏移3像素时,也就是测试集分布和训练集验证集分布差一个像素时,正确率到了0.89,偏移4像素,也就是分布相差二像素,正确率0.75,偏移5像素,也就是实际相差3像素,正确率低于0.60,谁能解释一下?我知道所谓的原则是验证集和测试集分布要一致,但是现在显然说明,cnn本身不具有平移不变性特性,论文中认为是maxpool和stride大于1的操作引起的,我是支持的,以后别再提maxpool引入了平移不变性,只能说引入微小形变的鲁棒性而已。



作者:吉光片羽
链接:https://www.zhihu.com/question/30817011/answer/667647225
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值