【安防展覽網 科技動態】攝像頭用AI識別圖像和視頻中的人臉和身體正變得越來越常見,小到超市、辦公室,大到自動駕駛、智慧城市,能夠快速抓取人體、識別人臉的智能攝像頭正變得無處不在。
不過,一組研究團隊設計了一張特別的彩色圖案,只要你將這塊40cmx40cm的神奇貼紙掛在身上,就可以避開AI攝像頭的監控。
這個團隊來自比利時魯汶大學(Katholieke Universiteit Leuven),他們發表了一篇論文,名為《欺騙自動監控攝像頭:針對攻擊人類監控的對抗補丁(Fooling automated surveillance cameras: adversarial patches to attack person detection)》。
論文上署名的三位研究人員Simen Thys、Wiebe Van Ranst和Toon Goedeme使用了流行的YOLOv2開源對象識別探測器進行了演示,他們通過用一些技巧成功騙過了探測器。
他們已經在論文中公布了源代碼。
一、宛如“隱形斗篷”的神器貼紙
我們先來看看這個研究小組究竟做了個什么東西。
如圖,右邊的人身上掛了一塊彩色貼紙,這張貼紙成功欺騙了AI系統,使他即便正面攝像頭,也沒有像左邊的人那樣被AI系統檢測出來(粉色框)。
右邊的人將貼紙反轉過來,立即被檢測出。
等右邊的人將貼紙交給左邊的人后,AI瞬間就檢測不出左邊的人。
研究人員指出,該技術可用于“惡意繞過監視系統”,允許入侵者“通過在他們的身體前面拿著一塊小紙板朝向監控攝像頭做些偷偷摸摸的行為(而不被發現)”。
據外媒報道,論文作者之一Van Ranst透露,應該采用現成的視頻監控系統來解決這個問題應該不會太難。“目前我們還需要知道哪個探測器正在使用中。我們今后想要做的是生成一個同時適用于多個探測器的補丁”,“如果這樣有效,那么補丁也可能對監控系統中使用的探測器起作用。”
該小組現在正計劃將補丁應用于服裝。
好比的威廉·吉布森(William Gibson)科幻小說《零歷史(Zero History)》所描述的情節,研究人員寫道:“我們相信,如果我們將這種技術與精致的服裝模擬結合起來,我們就可以設計出一種T恤印花,可以自動監控相機幾乎‘看不到’這個感人。”
未來他們的工作將側重于使補丁更加健壯和可遷移,因為它們不能很好地適用于不同的檢測架構,如Faster R-CNN 。
二、“對抗補丁”是怎樣煉成的?
這項研究的核心目的是創造一個系統,能夠生成可打印的對抗補丁,用于“愚弄”人類探測器?。
研究人員寫道:“我們通過優化圖像來實現這一目標,以減少與探測器輸出中人物外觀相關的不同概率。在我們的實驗中,我們比較了不同的方法,發現小化對象丟失創造了有效的補丁。”
然后他們打印出經過優化的補丁,并通過拍攝持有他們的人來測試它們。
研究人員發現,只要定位正確,補丁就能很好地工作。
“根據我們的結果,我們可以看到我們的系統能夠顯著降低人體探測器的準確性……在大多數情況下,我們的補丁能夠成功地將人員隱藏在探測器之外。在不是這種情況下,補丁與人的中心不對齊。”研究人員說。
優化器的目標就是小化總損失函數L。具體優化目標包括三個損失函數:Lnps(非可打印性得分)、Ltv(圖像總變化)、Lobj(圖像中的大對象分數)。
Lnps代表貼紙中的顏色在多大程度上可由普通打印機打印出來;
Ltv確保優化器支持平滑顏色過渡的圖像并防止圖像噪聲;
Lobj用于對探測器輸出的目標或類別分數實現小化。
上述三個損失函數相加即可得到總損失函數。
YOLOv2探測器輸出一個單元網格,每個單元格包含一系列錨點,每個錨點包含邊界框的位置、對象概率和類別得分。
為了讓探測器忽略圖像中的人,研究人員使用MS COCO數據集進行訓練,嘗試了三種不同的方法:小化類人的分類得分(圖4d),小化對象得分(圖4c),或兩者的組合(圖4b和4a)。
其中,種方法可能致使生成的補丁被檢測成COCO數據集的另一個類,第二種方法不存在這一問題,但生成貼紙針對某個類的特定性比其他方法低。
通過對各類“補丁”做實驗,后研究人員發現,經過多次圖像處理的隨機物體的照片效果較好,他們嘗試了多種隨機轉換,包括圖像旋轉、隨機放大和縮小、隨機添加隨機噪聲、隨機修改正確率和對比度等處理。
終,研究人員將獲得的幾個補丁和NOISE(隨機添加噪聲)、CLEAN(無補丁baseline)一起放在Inria測試集上做評估,重點評估這些補丁能避開多少監控系統產生的警報。
結果表明,OBJ補丁觸發的警報數量低(25.53%)。
第1行沒有補丁,第2行使用隨機補丁,第3行使用理想的補丁,效果很明顯,理想的補丁在多數情況下能成功讓人類躲過AI的檢測。
不過,這個補丁并不是的,效果不好時可能是因為它沒和人對齊。
三、對抗攻擊并非新鮮事
隨著AI的快速發展,視頻監控、自動駕駛、無人機和機器人、語音識別、文本篩查等多個AI細分領域都涉及到了越來越多的安全問題。
度日益增長的深度學習網絡,被發現極容易受到對抗攻擊的影響。
比如向原圖像添加一點精心設計的干擾,就有可能會使得一個分類模型做出錯誤的判斷,致使它將被修改后的圖像標注為完全不同的其他物體。
基于這一背景,越來越多的研究人員正在對真實世界的對抗攻擊感興趣。
2016年11月,來自卡內基梅隆大學和北卡羅來納大學的研究人員展示了如何使用一對打印的眼鏡架來擊敗面部識別系統。
研究人員稱:“當它的圖像提供給一個國家的先進的面部識別算法的攻擊者戴,眼鏡讓他逃避被認可或假冒他人”。
據稱,戴上鏡框后識別錯誤率高達100%,壞人可以利用這種識別漏洞躲過軟件的檢測,進而輕易偽裝成他人,成功用面部識別完成設備解鎖。
2017年10月,日本九州大學的Su Jiawei等人提出了黑箱DNN攻擊,通過使用差分進化(differential evolution)擾亂少數像素(1024 個像素中只擾亂1、3、5個像素)的方式,只需修改圖片中的幾個像素,即可讓深度神經網絡完全判斷錯誤。
2018年,伯克利人工智能研究實驗室(BAIR))演示了針對 YOLO 檢測器的實體對抗樣本,同樣采用貼紙擾動的形式,在“STOP”路標上粘貼了一些精心設計過的貼紙。
結果YOLO網絡在幾乎所有幀中都無法感知識別出「停止」標志。同樣,其為YOLO檢測器生成的實體對抗樣本也可以騙過標準的Faster-RCNN。
我們可以想象一下,假使一輛在道路上行駛的自動駕駛汽車,看見被貼了這樣貼紙的路標,一旦它被貼紙誤導,沒看懂路標,就有可能發生難以挽回的交通慘案。
結語:理想防御策略還在探索中
長期以來,對抗攻擊一直是機器學習領域有趣又非常重要的課題。
如今AI逐漸大面積應用于日常監控攝像頭和軟件中,出現在零售、工作空間、社區、交通等諸多場景。
而對抗樣本有可能會鉆神經網絡的漏洞,比如使得一些小偷可以避開監控攝像頭在無人商店自由偷東西,或者使得入侵者成功進入某棟建筑。
當前,研究人員們還遠未找到針對這些對抗樣本的理想防御策略,我們不妨期待對這一激動人心的研究領域會在不久之后出現突破性的進展。