《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 一種基于局部平均有限差分的黑盒對抗攻擊方法
一種基于局部平均有限差分的黑盒對抗攻擊方法
信息技術與網絡安全 1期
宗啟灼,徐茹枝,年家呈
(華北電力大學 控制與計算機工程學院,北京102206)
摘要: 在黑盒攻擊領域,目前主流方法是利用對抗樣本遷移性實現對抗攻擊,然而此類方法效果不佳。為此提出一種基于訪問的黑盒攻擊方法,此方法運用有限差分法直接估計樣本在目標模型中的損失函數梯度。為提高攻擊效率,算法在兩方面進行優化:第一,在估計梯度時,固定區域內使用平均像素值代替區域所有像素值進行有限差分,從而每個區域只需計算一次梯度;第二,在迭代生成對抗樣本時,提出復用多代梯度生成對抗擾動的思想,顯著減少攻擊迭代次數。經過大量實驗驗證,在MNIST、CIFAR-10和ImageNet中迭代的非目標攻擊分別獲得了99.8%、99.9%和85.8%的攻擊成功率,領先當今大多數黑盒攻擊算法。
中圖分類號: TP183
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2022.01.004
引用格式: 宗啟灼,徐茹枝,年家呈. 一種基于局部平均有限差分的黑盒對抗攻擊方法[J].信息技術與網絡安全,2022,41(1):23-29,36.
A black-box adversarial attack method based on local average finite difference
Zong Qizhuo,Xu Ruzhi,Nian Jiacheng
(School of Control and Computer Engineering,North China Electric Power University,Beijing 102206,China)
Abstract: In the field of black box attacks, the current main method is to use the migration of adversarial samples to achieve adversarial attacks. However, the current methods are not effective. For this reason, this paper proposes an access-based black box attack method, which uses the finite difference method to directly estimate the gradient of the loss function of the sample in the target model. In order to improve the efficiency of the attack, the algorithm is optimized in two aspects. Firstly, in the finite difference process, the average pixel value in a fixed area is used instead of each pixel value in the area, so that each area only needs to be calculated once. Secondly, when generating adversarial samples iteratively, the idea of reusing multiple generations of gradient generation to resist disturbance is proposed, which significantly reduces the number of attack iterations. After a lot of experimental verification, the iterative non-target attacks in MNIST, CIFAR-10 and ImageNet have achieved 99.8%, 99.9% and 85.8% attack success rates respectively, leading most of today′s black box attack algorithms.
Key words : image recognition;adversarial sample;local average finite difference;black box attack

0 引言

目前,神經網絡由于其高效解決復雜任務的能力,特別在計算機視覺領域,受到了廣泛研究和應用。神經網絡本身具有高度不可解釋性的黑盒性質,使其行為難以控制和解釋[1]。因此在具體領域應用的安全性值得關注和重視,譬如軍事、自動駕駛、醫療等。對抗樣本概念由 Szegedy等[1]在2013年首次提出,即在原始圖像中添加微小的擾動便可生成讓神經網絡模型高置信度錯誤分類的對抗樣本。

根據攻擊者對目標模型的結構和參數了解程度由高到低,依次可將對抗攻擊分為白盒攻擊、灰盒攻擊和黑盒攻擊三種。其中黑盒攻擊更加接近現實情況,相比前兩者具有更大的研究價值[2]。在黑盒攻擊的研究中,可分為基于遷移的黑盒攻擊[3]和基于訪問的黑盒攻擊[4]。

在基于遷移的黑盒攻擊中,文獻[5]在快速梯度下降方法[6]的基礎上,通過在梯度方向上增加動量,使生成的對抗性樣本具有更強遷移性。但此攻擊方法偶然性大、適用度低,并且攻擊成功率不高。在文獻[7]中,Papernot通過重復學習和擴充收集的數據,使得新數據集可以更好地表示目標模型,并提出基于雅可比行列矩陣的數據集擴充方法,迭代地擴充和完善替代模型。但是,當樣本圖像維度很大時,計算雅可比矩陣將消耗巨大資源,并且難以完全模仿被攻擊模型的決策邊界,使得遷移攻擊成功率降低。

由于替代模型無法完全模仿目標模型,越來越多的研究者傾向于直接估計目標模型的結構和參數信息,基于梯度估計的黑盒攻擊應運而生。文獻[4]利用零階優化(ZOO)算法通過訪問目標模型來估計損失函數的梯度,其本質是通過有限差分法估計梯度[8],此方法估計梯度時需要逐個對每個像素點進行估計,每次迭代都需要大量查詢才能生成準確的梯度估算值,攻擊效率低。文獻[9]利用有限差分法生成對抗樣本,在梯度估計過程中采用隨機分組法,減少計算量,但是減少的效果有限,并且在ImageNet數據集上攻擊成功率低。


本文詳細內容請下載:http://m.xxav2194.com/resource/share/2000003932




作者信息:

宗啟灼,徐茹枝,年家呈

(華北電力大學 控制與計算機工程學院,北京102206)


此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 99热在线精品观看| 亚洲国产欧美在线人成北岛玲 | 黑色丝袜小舞被躁翻了3d| 好男人www社区| 久久精品卫校国产小美女| 欧美网站www| 北美伦理电线在2019| 黄色免费一级片| 国产精欧美一区二区三区| 一区二区在线视频观看| 日本花心黑人hd捆绑| 亚洲国产电影在线观看| 看国产一级毛片| 国产ts人妖视频| 国产老妇一性一交一乱| 国产麻豆videoxxxx实拍| 一本大道在线无码一区| 日本乱偷互换人妻中文字幕| 亚洲av永久精品爱情岛论坛| 正能量www正能量免费网站 | 噜噜影院在线视频在线观看| 成人a在线观看| 国产精品视频a| sss在线观看免费高清| 无码人妻精品一区二区三区久久| 亚洲av无码成人精品区狼人影院 | 欧美日韩亚洲第一页| 免费又黄又硬又爽大片| 色欧美片视频在线观看| 国产成人综合亚洲欧美在| 7777久久亚洲中文字幕| 女人182毛片a级毛片| 中文字幕无码不卡免费视频 | 最近更新中文字幕在线| 亚洲欧美另类综合| 男女性色大片免费网站| 古装一级淫片a免费播放口| 野外三级国产在线观看 | 波多野结衣的av一区二区三区| 又粗又硬又大又爽免费视频播放 | 国产一区二区免费在线|