一个检查图像在对抗攻击时的健壮性的平台

迄今为止,深度神经网络(DNNs)已被证明在图像和音频分类等广泛的应用领域具有很高的前景。尽管如此,它们的性能在很大程度上依赖于用于训练它们的数据量,而大型数据集并不总是可用的。

当DNNs没有得到充分的训练时,它们更容易对数据进行误分类。这使得他们很容易受到一种特殊的网络攻击,即对抗性攻击。在对抗性攻击中,攻击者创建真实数据的副本,以欺骗DNN(即。(如敌对的数据),欺骗数据对数据进行错误分类,从而损害其功能。

近年来,计算机科学家和开发人员提出了多种工具,通过检测原始数据和敌对数据之间的差异,可以保护深层神经结构免受这些攻击。然而,到目前为止,这些解决方案没有一个被证明是普遍有效的。

武汉大学和武汉软件工程职业学院的研究人员最近推出了一个平台,该平台可以通过计算复制图像欺骗DNN的容易程度来评估图像对敌方攻击的鲁棒性。这个新平台被称为“傻瓜”,发表在《爱思唯尔神经计算杂志》上。

研究人员在他们的论文中写道:“我们的论文提出了一个名为傻瓜的平台,可以从图像本身的角度而不是DNN模型来评估图像对敌方攻击的鲁棒性。”“我们定义了原始样本和对抗样本之间的最小感知距离,以量化对抗对抗攻击的鲁棒性。”

愚checker是首批量化图像抗敌对攻击的鲁棒性的方法之一。在仿真中,该技术取得了显著的效果,在较短的时间内完成了计算。

在开发他们的平台时,研究人员比较了一些度量原始图像和敌对图像之间距离的指标。被证明最有效的度量是原始样本和敌对样本之间的摄动灵敏度距离(PSD)。

愚checker通过计算成功愚弄一个DNN分类器所需的最小PSD来工作。虽然手工计算这将花费很长时间,但研究人员开发了一种结合差分进化(DE)技术和贪婪算法的方法,贪婪算法是一种经常用于解决优化问题的直观架构。

“首先,差分进化应用于产生具有高扰动优先级的候选扰动单元,”研究人员写道。然后,贪婪算法尝试将当前扰动优先级最高的像素添加到扰动单元中,直到DNN模型被愚弄为止。最后,计算扰动单位的感知距离作为评价图像对敌方攻击的鲁棒性的指标。

研究人员在一系列测试中评估了蠢驴,发现当某幅图像被大量的dna处理时,它可以有效地计算出对敌对攻击的鲁棒性。他们的研究提供了证据,表明DNN模型的对抗性脆弱性也可能是由外部因素造成的。例如,它正在处理的图像的特征。

换句话说,研究小组发现,图像本身可能会因其易于修改的程度而发生变化,从而使dna误分类数据。在未来,他们开发的平台可用于评估向DNNs提供的数据的健壮性,从而防止攻击者创建敌对数据并实施攻击。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢