anti-NSFW-detection-test
一些尝试用于对抗色情图片检测算法的思路。
由于政策限制,本文中的所有图片均不可能正常显示。因此如果想要了解图片经过处理后的直观形式如何,请移步GitHub。链接:https://github.com/wangx404/anti-NSFW-detection-test
背景
诸如新浪微博和tumblr之类的网站都会对用户上传的图片进行检测,以屏蔽掉某些不合时宜的(Not Suitable for Work)图片。尽管对于某些以此为生的媒体来说这无异于灭顶之灾,但对普通用户而言,类似的检测算法却影响甚小。即便如此,你仍然会感到不爽,尤其是某些时候你想要分享的性感图片也被屏蔽掉。所以使用了一些图片对新浪微博/Tencent AI/Baidu AI的检测算法进行了测试,得出了一些(可能)可行的对抗检测的思路。
一些对抗思路
-
旋转。
因为基于CNN的检测算法通常是旋转不鲁棒的,所以可以通过将图片旋转一定的角度用于改变概率的预测值。
在早期时,某些平台的检测算法确实存在此问题,但是这一问题很快就被修复。在训练CNN模型时,只需要增加对图片的随机旋转增广就可以改善模型的旋转鲁棒性。
以Tencent AI的色情图片检测为例,将示例图片分别旋转90°和180°之后进行测试,porn的概率反而越来越大。这说明了这一种思路目前已经不太可行。