读论文:Seeing isn’t Believing: Towards More Robust Adversarial Attack Against Real World Object Detecto
读论文:Seeing isn’t Believing: Towards More Robust Adversarial Attack Against Real World Object Detectors — CCS2019 【 说真的,这是我第一次写文章,完全不会用啊,大哥!!!!!! 】 Part Ⅰ: Abstract & Introduction 这篇论文主要讲的是 物理世界对抗样本,在开头Abstract 和 Introduction部分,作者主要为了阐明攻击 object detector( in real world ) 和 攻击 images classifier( in digital world )的区别,也论证了在物理层面上实现对抗样本的攻击是更难以实现的,因为有着诸多的约束: 1.target object 与 detector的 相对位置(角度、距离等)会时刻发生改变 2target object 所在的环境条件(背景、光线等)会时刻发生变化 3.受攻击的模型是 object detector,是dynamic,不像images detector,是static。 4.detector在作出分类预测之前,还需要检测whether there is an object。 针对以上所述,作者提出了两种AEs Part Ⅱ:Attack approach –