Intro
是否遇到过图片莫名被ban?图片上传后都会有程序自动化识别是否合规。那么有没有方法绕过图片识别呢?
图片识别背后是AI模型
深度学习模型(AI模型)的一大应用就是图片分类。和猫狗分类类似,通过训练,AI模型会很容易学会识别一个图片是否涉黄,或者其他违规,并且会输出似然概率。
内容网站的背后,多数都接入了AI识别。
鉴黄API
网上有很多在线api提供鉴黄服务,比如:https://www.picpurify.com,它背后是AI模型。
网站提供了api调用,传入图片,会返回涉黄概率是多少,大于0.5可以认为是涉黄。
我们要想对这个api进行测试,但是api提供的免费调用额度太少怎么办?
Github Hack
可以利用github白嫖api key。在github搜关键词如『picpurify api key』会看到很多『好心人』,把自己的key也传上去了。既然传上来了,我们就暂时借着用用。
AI模型 Hack
就拿上面找到的在线鉴黄api为例,演示如何对它进行黑盒攻击(也就是达到输入一张人眼看起来明显涉黄的图片,但是api却错误的认为它是正常图片)
simple black-box adversarial attacks
黑盒攻击的方式有很多,我拿下面这篇论文为例
算法分析
随机选取图片的一个像素点,改变它的值。把改变后的图片给模型识别,如果模型识别概率变小(比如原始图片涉黄概率98%,改变了这个像素,变成了96%),就把这个改变留下来,不变或者上升就丢弃这个改变。继续不断的随机选取像素点,改变像素值,识别,直到最后这个似然概率小于50%,攻击成功结束。
攻击开始
其实肉眼来看,修改过的图对比原图改动非常少。但是却可以成功欺骗AI模型,让它认为是个正常的图(概率0.50039)。
结论
关于AI攻击方法,本文只是一个简单介绍,实际还有很多内容。关于深度学习和AI技术,也有太多话题可以聊。本文仅作测试研究,不做实际应用,hack for fun