2021年的安全AI挑战者计划的第六期由阿里和CVPR联合推出的竞赛一共分为两个赛道,赛道1是[ 防御模型的白盒对抗攻击 ],赛道2是 [ ImageNet无限制对抗攻击 ] 。 比赛链接:https:///WrfHzW 论文链接:https:///abs/2105.04834 该论文的贡献可以归结为以下三个:
相关工作给定一个分类器神经网络,其中参数为。表示样本图像和对应的标签,对抗攻击的目的是找到一个样本,它可以使得分类器分类出错。 在大多数情况下,用阈值去约束范数获得对抗样本,其中的取值为0或者2,表达式可以表示为: 输入多样性攻击在每次迭代中对输入图像应用随机变换,以创建更多样的输入模式,这给对抗扰动带来了随机性,并有效地提高了对抗样本的泛化能力,表达式可以表示为: 平移不变迭代攻击通过使用预定义的核平滑图像的梯度来提高攻击能力,使得对抗样本对被攻击的白盒模型的辨别区域不太敏感。该方法可表述为: 动量迭代攻击 通过将动量项集成到迭代过程中来稳定更新方向,从而增强对抗攻击。基于动量的迭代攻击可以表示为: 其中表示的是动量梯度,是衰减系数。 输入多样性创建了不同的输入模式,在攻击图像的过程中,图像将在每次迭代期间以一定的概率随机变换一次,从而增强了可转移性。
为了减少输入多样性引入的随机无用梯度信息的影响,作者设计了一种梯度细化的方法,可以有效地提高对抗样本的可移植性。
下图给出了该算法的框架。对于原始图像,使用输入多样性和了随机性,多次获得多个变换图像,并计算它们各自的梯度。平移不变方法用于放大随机性。然后保留有用的梯度信息,通过平均运算抵消无用的梯度,得到细化的梯度。将上述过程重复次,得到一个具有高度可转移性的对抗性图像。 相应的算法框架如下图所示 实验设置
修正次数的影响校正次数在提高转移攻击成功率方面起着关键作用。作者用不同的修正时间攻击了Res-101模型,修正时间从到,粒度为。结果如下图所示,转移攻击成功率起初持续上升,修正次数超过次后转而保持稳定。 不同设置下的攻击成功率我们使用DI-FGSM、DTI-FGSM和DTMI-FGSM算法,以及它们的扩展,结合梯度细分攻击方法,如R-DI-FGSM、R-DTI-FGSM和R-DTMI-FGSM算法,进行对抗攻击。
在单模型攻击下,当提出的梯度细化时,转移攻击成功率被大幅度提高。平均而言,基于梯度细化的攻击的转移攻击成功率比基线攻击高出6.0%。
在集合模型设置下,过使用梯度细化也可以提高可传递性。论文中作者使用两个模型,Res-101和VGG-16。R-DTI-FGSM大大提高了基线方法的转移攻击成功率,因为平移不变方法放大了输入多样性带来的随机性,论文中的方法可以纠正无用的随机性,并获得一个精细的梯度来产生更强的对抗扰动。 备注:对抗 对抗攻击交流群 对抗攻击等最新资讯,若已为CV君其他账号好友请直接私信。 |
|