如何光明正大的搞颜色
💞

如何光明正大的搞颜色

Published
May 21, 2024
Author
daleewong

Intro

notion image
是否遇到过图片莫名被ban?图片上传后都会有程序自动化识别是否合规。那么有没有方法绕过图片识别呢?

图片识别背后是AI模型

猫狗分类模型
猫狗分类模型
深度学习模型(AI模型)的一大应用就是图片分类。和猫狗分类类似,通过训练,AI模型会很容易学会识别一个图片是否涉黄,或者其他违规,并且会输出似然概率。
内容网站的背后,多数都接入了AI识别。

鉴黄API

网上有很多在线api提供鉴黄服务,比如:https://www.picpurify.com,它背后是AI模型。
网站提供了api调用,传入图片,会返回涉黄概率是多少,大于0.5可以认为是涉黄。
我们要想对这个api进行测试,但是api提供的免费调用额度太少怎么办?
notion image
notion image

Github Hack

可以利用github白嫖api key。在github搜关键词如『picpurify api key』会看到很多『好心人』,把自己的key也传上去了。既然传上来了,我们就暂时借着用用。
notion image

AI模型 Hack

就拿上面找到的在线鉴黄api为例,演示如何对它进行黑盒攻击(也就是达到输入一张人眼看起来明显涉黄的图片,但是api却错误的认为它是正常图片)

simple black-box adversarial attacks

黑盒攻击的方式有很多,我拿下面这篇论文为例
notion image

算法分析

随机选取图片的一个像素点,改变它的值。把改变后的图片给模型识别,如果模型识别概率变小(比如原始图片涉黄概率98%,改变了这个像素,变成了96%),就把这个改变留下来,不变或者上升就丢弃这个改变。继续不断的随机选取像素点,改变像素值,识别,直到最后这个似然概率小于50%,攻击成功结束。
notion image

攻击开始

 
原图
原图
 
notion image
攻击成功的图
攻击成功的图
其实肉眼来看,修改过的图对比原图改动非常少。但是却可以成功欺骗AI模型,让它认为是个正常的图(概率0.50039)。

结论

关于AI攻击方法,本文只是一个简单介绍,实际还有很多内容。关于深度学习和AI技术,也有太多话题可以聊。本文仅作测试研究,不做实际应用,hack for fun