Robust Adversarial Examples_鲁棒的对抗样本
https://blog.openai.com/robust-adversarial-inputs/?spm=a2c4e.11153940.blogcont149583.11.4ab360c0mXrtX7 原文中包含视频例子。 我们创建的图像可以在从不同的尺度和视角观察时可靠地欺骗神经网络分类器。 这挑战了上周声称自动驾驶汽车难以恶意欺骗,因为它们从多个尺度,角度,视角等捕获图像。 这张印刷在标准彩色打印机上的小猫照片让分类器误以为它是一台“显示器”或“台式电脑”,无论它是如何缩放或旋转的。 我们期望进一步的参数调整也会删除任何人类可见的伪像。 参照论文 1.Synthesizing Robust Adversarial Examples 开箱即用的对抗样本在图像转换下失败。 下面,我们展示了相同的猫图片,由ImageNet上训练的Inception v3错误地归类为台式计算机。 缩小至1.002会导致正确标签“tabby cat”虎斑猫的分类概率覆盖对抗性标签“desktop computer”台式计算机。 然而,我们怀疑积极的努力可以产生一个强大的对抗性的例子,因为已经证明对抗性的例子转移到物理世界。(参照论文 4.Adversarial examples in the physical world ) 尺度不变的对抗样本 可以使用称为 投影梯度下降(projected