成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

CanSecWest 2019 | 如何用AI“欺騙”AI?

企業(yè)動態(tài)
在威廉•吉布森的科幻小說《零歷史》中有這么一個情節(jié):有人發(fā)明了一件奇丑無比的T恤,其神奇之處在于,這是一件能在監(jiān)控攝像下“隱身”的衣服——只要穿上這件T恤,就能神乎其技地躲開監(jiān)控,去做一些見不得光的事情……

 引言:隱形T恤

在威廉?吉布森的科幻小說《零歷史》中有這么一個情節(jié):有人發(fā)明了一件奇丑無比的T恤,其神奇之處在于,這是一件能在監(jiān)控攝像下“隱身”的衣服——只要穿上這件T恤,就能神乎其技地躲開監(jiān)控,去做一些見不得光的事情……

在現(xiàn)實世界中,這已經(jīng)不完全是科幻概念了。在目前的AI攻防研究中,這種監(jiān)控攝像下的“隱形T恤”已經(jīng)有了具體的表現(xiàn)。其出現(xiàn)的主要原因是AI算法設計的時候未充分考慮相關的安全威脅,使得AI算法的預測結(jié)果容易受惡意攻擊者的影響,導致AI系統(tǒng)判斷失誤。

可見,AI在改變?nèi)祟惷\的同時,也同樣存在安全風險。這樣的安全風險可以體現(xiàn)在醫(yī)療、交通、工業(yè)、監(jiān)控、政治等眾多領域。犯罪分子通過惡意攻擊來“蒙蔽”AI,甚至可能進行擾亂政治選舉、傳播黃暴恐、蓄意謀殺等重大犯罪活動。

因此,AI安全不容忽視,特別是來自于外部攻擊導致的AI模型風險,比如對抗樣本攻擊可以誘導AI模型進行錯誤的判斷,輸出錯誤的結(jié)果。本文主要針對這一問題進行分析。

1.什么是對抗樣本?

對抗樣本(adversarial examples),最早由Szegedy等人[1]在2013年提出。它是指通過給輸入圖片加入人眼難以察覺的微小擾動,使得正常的機器學習模型輸出錯誤的預測結(jié)果。如圖1所示,輸入一張熊貓圖片,正常的深度神經(jīng)網(wǎng)絡可以正確地將其識別為“panda (熊貓)”。但是有針對性地給它加上一層對抗干擾后,同一個深度神經(jīng)網(wǎng)絡將其識別為“cocktail shaker (雞尾酒調(diào)酒器)”, 如圖2所示。

??

??

圖1. 正常圖片識別

??

??x`

圖2. 對抗樣本攻擊

那么對抗樣本出現(xiàn)的原因是什么呢?主要有兩個原因?qū)е聦箻颖镜某霈F(xiàn):

(1)首先,基于深度學習的神經(jīng)網(wǎng)絡模型可學習的參數(shù)有限,導致神經(jīng)網(wǎng)絡的表達能力有限,無法覆蓋所有圖像的可變空間。而且目前用于訓練神經(jīng)網(wǎng)絡的數(shù)據(jù)集相對于整個自然場景圖像的空間來說,依然只占很小一部分空間,因此可能存在這樣一類與自然圖像中的樣本很相似的樣本,人眼無法察覺到它們的差異,但是神經(jīng)網(wǎng)絡將其識別錯誤。

(2)其次,神經(jīng)網(wǎng)絡中的高維線性變換導致對抗樣本[2]。例如,假設存在樣本x和網(wǎng)絡權重W,對樣本x加入微小的干擾η來構(gòu)建對抗樣本,即

??

??

,對于線性變換

??

??

,WTη為噪聲的線性積累,當線性變換的權重W與噪聲η 的方向一致或完全相反時,導致這兩者的點積最大或最小,導致輸出超出正常范圍,最終導致神經(jīng)網(wǎng)絡預測錯誤。

因此,對抗樣本并不是將隨機產(chǎn)生的噪聲疊加到正常的樣本上就可以使模型識別錯誤,而是與模型的參數(shù)W有關。對抗樣本是一種被惡意設計來攻擊機器學習算法模型的樣本。

一般來說,對抗樣本攻擊可以分為有目標攻擊(targeted attacks)和無目標攻擊(non-targeted attacks)。所謂有目標攻擊,即給定目標類別,修改輸入圖片,使神經(jīng)網(wǎng)絡將其識別為目標類別。而無目標攻擊,只需要修改圖片使其類別發(fā)生改變即可。

對抗樣本攻擊還可以分為白盒攻擊(white-box attacks)與黑盒攻擊(black-box attacks)。其中白盒攻擊是指攻擊者能夠能夠獲知機器學習所使用的算法以及算法所使用的參數(shù),攻擊者在生成對抗樣本的過程中可以與機器學習系統(tǒng)有所交互。而黑盒攻擊是指攻擊者并不知道機器學習所使用的算法模型或參數(shù)。

2.對抗樣本是怎樣生成的?

2.1 優(yōu)化目標

近年來,對抗樣本的生成算法得到了快速發(fā)展,其中利用模型參數(shù)最大化模型分類損失的方法最為常用。該方法的總體分類目標可以定義為:給定模型y = f ( x, W )(其中W為模型參數(shù),x為模型輸入,f ( x, W )為輸入到輸出的映射),對抗樣本

??

??

 可以定義為:  

 ??

??

 其中l(wèi) (·, ·)為損失函數(shù),刻畫原始樣本輸出和對抗樣本輸出的差異。可以使用梯度上升(gradient ascent)的方法來解決該最大化優(yōu)化問題。

2.2 FGSM

Goodfellow等人[2]提出了一種名為Fast Gradient Sign Method(FGSM)的快速優(yōu)化方法,定義如下: 

??

??

 其中t為x的類別。該方法首先計算損失函數(shù)針對輸入的梯度,再取符號函數(shù),最后加入擾動因子 ε 即可以得到對抗樣本。簡單有效,僅需一步迭代。但是這種對抗樣本生成方法的白盒攻擊成功率較低,因為在大多數(shù)情況下無法通過一步迭代有效提升損失函數(shù)。

2.3 BIM

為了解決白盒攻擊成功率較低的問題,Kurakin等人[3]提出了一種名為Basic Iterative Method(BIM)的方法, 其定義如下: 

??

??

 該方法通過多次迭代的方法最大限度地增大損失函數(shù),能夠增加白盒模型的識別錯誤率。但是BIM的黑盒攻擊成功率比FGSM低,遷移性較差,因為BIM容易在白盒模型上過擬合。

2.4 我們的方法:TAP

為了解決多步迭代方法容易過擬合的問題,我們提出了一種新的對抗樣本生成方法:Transferable Adversarial Perturbations (TAP),定義如下: 

??

??

 該方法主要進行了兩項優(yōu)化:(1)加入特征距離來最大化原始樣本與對抗樣本高層特征之間的距離;(2)加入正則項來移除高頻噪聲,保留遷移性強的擾動。算法1闡述了使用TAP方法生成對抗樣本的詳細流程: 

??

??

 圖3展示了分別使用FGSM、BIM和TAP方法針對Inception V3網(wǎng)絡生成的對抗樣本。為了直觀地驗證對抗樣本的影響,我們對黑盒模型所提取的特征進行了可視化。細節(jié)來說,我們使用Inception V3來生成對抗樣本,然后使用Inception V4對生成的對抗樣本進行特征提取,從倒數(shù)第二層提取了1536維特征。接著,我們使用t-SNE對1536維特征進行降維,得到一個三維的特征表示,可視化效果如圖4所示。由圖4可知,我們的方法生成的對抗樣本與原始圖片之間的距離大于使用FGSM和BIM方法生成的對抗樣本與原始圖片之間的距離,證明用我們的方法在Inception V3上生成的對抗干擾將以更高的概率遷移到Inception V4的特征空間上。 

??

??

 (a)FGSM (b) BIM (d) TAP

圖3.對抗樣本生成示例

??

??

 圖4. t-SNE可視化特征距離

我們關于對抗樣本生成的相關成果已經(jīng)發(fā)表于ECCV 2018 [4],在此次CanSecWest會議中,我們也對這項工作進行了簡單的介紹。

3.如何使用對抗樣本來欺騙AI?

當AI被“蒙蔽”,壞人能夠做哪些事?我們使用對抗樣本對人臉識別、目標檢測、交通指示標識別、色情識別等多個應用進行了實驗。

3.1人臉識別

在人臉識別攻擊的實驗中,我們嘗試將Trump的圖片修改為Merkel,從男性更改為女性。圖5展示了我們對人臉識別網(wǎng)絡的攻擊過程,具體流程如下:

Step 1. 收集N張目標人物(Merkel)的人臉圖片,使用人臉檢測網(wǎng)絡對N張圖片進行人臉檢測和裁剪,然后送入人臉識別網(wǎng)絡進行特征提取,將得到N個特征表示{ f 1,f2,。。。,f N}

Step 2. 將攻擊圖片也進行人臉提取、裁剪和特征提取,將得到人臉特征f x;

Step 3. 計算loss來度量特征相似度;

Step 4. 通過梯度上升多次迭代最大化loss,生成對抗樣本;

Step 5. 將生成的人臉對抗樣本疊加到原始圖片中的人臉區(qū)域。 

????

3.2 目標檢測

我們也對目標檢測網(wǎng)絡Faster R-CNN [7] 進行了攻擊實驗。目標檢測網(wǎng)絡以待檢測的圖片為輸入,輸出前景目標的坐標和類別,如人、馬、狗、汽車等。一般目標檢測網(wǎng)絡的損失函數(shù)包含定位和分類兩部分。在這個實驗中,我們僅考慮了分類損失,因為我們發(fā)現(xiàn)分類失敗能更大概率影響目標檢測的結(jié)果。圖8展示了目標檢測攻擊的結(jié)果,原本能夠精準定位和分類的前景目標的坐標和類別都發(fā)生了改變,說明針對目標分類的噪聲也可以遷移到目標定位。 

??

??

 (a)原始圖片 

??

?

(b)對抗樣本圖

8. 目標檢測攻擊

3.3 交通指示牌識別

圖9展示了我們對交通指示牌識別網(wǎng)絡的攻擊樣例。目標檢測與交通指示牌識別是自動駕駛或輔助駕駛系統(tǒng)常用的兩種AI技術,一旦目標檢測與交通指示牌識別系統(tǒng)受到攻擊,后果將不堪設想(如圖10)。

??

??

 圖9. 交通指示牌識別攻擊

??

?

圖10. 輔助駕駛系統(tǒng)

3.4 色情識別

對抗樣本同樣可以蒙騙色情識別系統(tǒng)。圖11顯示了使用Google Cloud [8]色情識別系統(tǒng)將修改后的色情圖片識別為正常圖片。 

????

 ????


4.如何防范對抗樣本攻擊?

針對AI安全對抗樣本攻擊的防御主要分為三個階段:數(shù)據(jù)收集階段、模型訓練階段、模型使用階段。圖12列出了在各個階段的各種防御技術。 

??

??

 圖12. AI安全對抗樣本防御技術

生成對抗樣本(Adversarial Example Generation):該方法是指在模型訓練之前進行數(shù)據(jù)收集階段,使用各種已知的攻擊方法和網(wǎng)絡模型生成對抗樣本,作為數(shù)據(jù)的一部分。一般而言,生成的對抗樣本的方法和模型類型越多,樣本的變化越大,越有利于訓練生成魯棒的模型。

網(wǎng)絡蒸餾(Network Distillation):該方法的基本原理是指在模型訓練階段,對多個神經(jīng)網(wǎng)絡進行串聯(lián),其中前一個大網(wǎng)絡的訓練結(jié)果被作為“軟標簽”去訓練后一個小網(wǎng)絡。相關研究[9]發(fā)現(xiàn)遷移知識可以在一定程度上降低模型對微小擾動的敏感度,提高AI模型的魯棒性。

對抗訓練(Adversarial Training):該方法是指在模型訓練過程中將在數(shù)據(jù)收集階段生成的各種各樣的對抗樣本加入訓練集中,對模型進行單次或多次訓練,可以生成可以抵抗對抗干擾的對抗模型。該方法不僅可以增強新生成模型的魯棒性,還可以增強模型的準確率。

對抗樣本檢測(Adversarial Example Detection):該方法的基本原理是指在模型使用階段加入對抗樣本檢測模塊來判斷輸入的樣本是否為對抗樣本。可以是在輸入樣本到達原模型之前進行對抗樣本檢測,也可以是從原模型內(nèi)部提取信息來進行判斷。例如,輸入樣本和正常數(shù)據(jù)之間的差異性可以作為判斷標準,也可以簡單地訓練一個基于神經(jīng)網(wǎng)絡的二分類模型來進行對抗樣本檢測。

樣本重構(gòu)(Example Reconstruction):樣本重構(gòu)是指將對抗樣本恢復為正常樣本。通過這樣的轉(zhuǎn)換后,對抗樣本將不對網(wǎng)絡預測的結(jié)果產(chǎn)生影響。樣本重構(gòu)最常用的方法是對輸入的對抗樣本進行降噪,即使用降噪網(wǎng)絡將對抗樣本轉(zhuǎn)換為正常樣本,或是直接在原模型網(wǎng)絡架構(gòu)中加入降噪模塊。

模型驗證(Model Verification):模型驗證是指檢查神經(jīng)網(wǎng)絡的屬性,驗證輸入是否違反或滿足屬性要求。該方法是防御對抗樣本攻擊很有希望的一種防御技術,因為它可以檢測未曾見過的對抗樣本攻擊。

然而,以上的防御措施都有特定的應用場景,并不能防御所有的對抗樣本攻擊,特別是一些攻擊性較強的、未曾出現(xiàn)過的對抗樣本攻擊。此外,也可以并行或串行整合多種防御方法,增強AI模型的防御能力。目前,大多數(shù)防御方法都是針對計算機視覺中的對抗樣本,隨著其他領域的對抗樣本的發(fā)展,比如語音,迫切需要針對這些領域的對抗樣本攻擊的防御方法。

總結(jié)

AI擴寬了人類解決問題的邊界,但是也暴露了各種各樣的安全性問題。本文剖析了AI系統(tǒng)極易受到對抗樣本的攻擊,并且現(xiàn)有的防御技術并不能完全防御這樣的攻擊。一旦AI系統(tǒng)被惡意攻擊,輕則造成財產(chǎn)損失,重則威脅人身安全。AI應用的大規(guī)模普及和發(fā)展需要很強的安全性保證,因此,我們還需要持續(xù)提升AI安全、提升AI算法的魯棒性。安平AI安全研究團隊也會在這個領域不斷深耕,助力AI事業(yè)發(fā)展。

參考文獻

Szegedy, Christian, et al. "Intriguing properties of neural networks." Computer Science (2013).

Goodfellow, Ian J., J. Shlens, and C. Szegedy. "Explaining and Harnessing Adversarial Examples." Computer Science (2015).

Kurakin, Alexey, I. Goodfellow, and S. Bengio. "Adversarial examples in the physical world." (2016).

Zhou, W., Hou, X., Chen, Y., Tang, M., Huang, X., Gan, X., & Yang, Y. (2018). Transferable Adversarial Perturbations. In Proceedings of the European Conference on Computer Vision (ECCV) (pp. 452-467).

??https://console.aws.amazon.com/rekognition/home?region=us-east-1#/celebrity-detection??

??https://azure.microsoft.com/en-us/services/cognitive-services/computer-vision/??

Ren, S., He, K., Girshick, R., & Sun, J. (2015). Faster r-cnn: Towards real-time object detection with region proposal networks. In Advances in neural information processing systems (pp. 91-99).

??https://cloud.google.com/vision/??

Papernot, N., McDaniel, P., Wu, X., Jha, S., & Swami, A. (2016, May). Distillation as a defense to adversarial perturbations against deep neural networks. In 2016 IEEE Symposium on Security and Privacy (SP) (pp. 582-597). IEEE.

【本文為51CTO專欄作者“騰訊技術工程”原創(chuàng)稿件,轉(zhuǎn)載請聯(lián)系原作者(微信號:Tencent_TEG)】
??
戳這里,看該作者更多好文?
?

 

責任編輯:武曉燕 來源: 51CTO專欄
相關推薦

2025-03-31 09:30:52

2020-02-19 13:11:52

阿里 AI 代碼

2024-09-03 16:38:11

2020-07-14 08:34:07

AI機器學習預測股價

2025-03-28 09:33:11

2020-08-06 09:11:08

人工智能航空技術

2024-10-25 15:43:57

2024-09-12 09:16:11

2024-02-19 13:10:38

模型訓練

2020-04-09 09:50:40

AI 安全平臺人臉算法

2022-10-28 12:18:18

AI繪畫自拍

2019-05-16 15:54:59

人工智能AI

2021-07-26 05:42:26

人工智能AI機器學習

2020-12-10 09:05:05

AI數(shù)據(jù)分析人工智能

2020-12-25 15:35:01

人工智能DevOpsML

2018-04-03 11:47:16

AI手機人工智能

2025-03-03 07:30:00

AI模型AI安全人工智能

2020-11-01 23:46:19

AI機器學習農(nóng)業(yè)

2025-02-24 08:24:39

2019-07-03 18:19:57

AI百度AI開發(fā)者大會百度
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 黑人巨大精品欧美黑白配亚洲 | 久久久久亚洲精品 | 国产 日韩 欧美 中文 在线播放 | 97热在线 | 国产精品久久久久久吹潮 | 免费毛片网站在线观看 | 高清色| 日韩1区 | 在线观看深夜视频 | 亚洲成人中文字幕 | 精品伦精品一区二区三区视频 | 日韩精品一区二区三区中文在线 | 日韩精品在线观看网站 | 欧美综合一区二区 | 国产精品久久久久久久久久久久久久 | 亚洲精品性视频 | 亚洲成人一区二区在线 | 一区二区在线看 | 天天干视频| 精品久久九 | 久久最新精品视频 | 国产一区91精品张津瑜 | 特黄毛片视频 | 一级a性色生活片久久毛片 一级特黄a大片 | 人人亚洲| 一区二区在线 | 九色在线| 国产日韩欧美精品一区二区 | 日韩午夜网站 | 日韩免费视频一区二区 | 日韩一二区在线 | 国产精品久久久久久久7电影 | 九九国产在线观看 | 日韩成人| 国产精品欧美一区二区三区不卡 | 亚洲精品一区二区三区蜜桃久 | 日韩精品免费在线 | 欧美日日 | 2018国产大陆天天弄 | 欧美国产视频一区二区 | 成在线人视频免费视频 |