大数据文摘出品
来源:venturebeat
谷歌和纽约大学的研究人员在年就进行过一项研究,证明了物体和面部检测算法容易受到对抗性攻击,在研究中,识别模型可以被附加在目标上的一些特殊图案所欺骗。
大多数对抗性攻击的研究涉及到像玻璃框架、停车标志或硬纸板这样的坚硬物体。但是西北大学和MIT-IBMWatsonAI实验室的研究人员提出了一种他们称之为“对抗式”的T恤,尽管这种印有图案的T恤会随着人体姿势的改变而变形,但也能很好的避开人体探测器。
他们声称,针对流行的YOLOv2模型,它在对抗识别的成功率分别达到了79%和63%。
论文