一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

AI領(lǐng)域未來幾年最引人矚目的新方向是什么?

 學(xué)術(shù)頭條 2020-11-27

在調(diào)查近幾年 AI 領(lǐng)域的過程中,我發(fā)現(xiàn)近幾年對抗攻擊的概念逐漸出現(xiàn)在全世界各國研究人員的視野中,我認(rèn)為這將會是現(xiàn)在乃至未來幾年最引人矚目的新方向之一。


1.概述

我在國內(nèi)的兩個(gè)著名的學(xué)術(shù)搜索網(wǎng)站 AMiner 和 Acemap 進(jìn)行了調(diào)查,以 adversarial attack和相近意思的 poisoning attack 等詞作為關(guān)鍵詞搜索了相關(guān)的論文,以下是兩個(gè)網(wǎng)站給出的論文數(shù)據(jù)分析圖表。

一方面,從圖中很明顯可以看出,在 2015 年直到今年,adversarial attack相關(guān)的論文顯著增多,這說明了在機(jī)器學(xué)習(xí)發(fā)展飛速的今天,機(jī)器學(xué)習(xí)的安全問題逐漸被研究者們所重視。 所以我認(rèn)為這個(gè)方向在未來幾年應(yīng)該會是一個(gè)新興的熱點(diǎn)。

另一方面,雖然這類論文在近幾年顯著增多,但是這并不能說明這個(gè)方向的前景更好、 可挖掘的知識更多。所以我又搜索了另一個(gè)現(xiàn)在已經(jīng)成為熱門方向的領(lǐng)域——reinforcement learning的數(shù)據(jù)來作為對比。

通過對比 reinforcement learning 和 adversarial attack 的熱度和論文發(fā)表數(shù)量,可以發(fā)現(xiàn)與強(qiáng)化學(xué)習(xí)這類已經(jīng)成為熱門的方向相同,對抗攻擊也開始有論文、熱度急劇上升的階段, 但是與之不同的是,對抗攻擊論文的絕對數(shù)量至今仍很少。

這說明了對抗攻擊的可研究的東西還處于正在被研究者們逐漸挖掘的過程,還未形成一個(gè)體系。所以從這一點(diǎn),直觀上來說, 我認(rèn)為最近的科技新詞應(yīng)當(dāng)是 adversarial attack。

2.原理

對抗攻擊的開山之作 Intriguing properties of neural networks[12]中提到了神經(jīng)網(wǎng)絡(luò)的兩個(gè)現(xiàn)象。

第一個(gè)是高維神經(jīng)網(wǎng)絡(luò)的神經(jīng)元并不是代表著某一個(gè)特征,而是所有特征混雜在所有神經(jīng)元中;第二個(gè)是在原樣本點(diǎn)上加上一些針對性的但是不易察覺的擾動,就很容易導(dǎo)致神經(jīng)網(wǎng)絡(luò)的分類錯(cuò)誤。

第二個(gè)性質(zhì)就是對抗攻擊的理論基礎(chǔ),后來Goodfellow 在 Explaining and Harnessing Adversarial Examples[13]中提出原因并非是深層神經(jīng)網(wǎng)絡(luò)的高度非線性和過擬合,即使是線性模型也存在對抗樣本。在這篇論文中,我們可以粗淺地認(rèn)為對抗攻擊之所以能夠成功的原因是誤差放大效應(yīng):

假設(shè)我們給輸入樣本加入擾動,則對抗樣本即為:???= ?? + ??,其中??足夠小(|??|≤ ??),

我們考慮權(quán)重向量ω和對抗樣本???的內(nèi)積:

?? ?? ??? = ?? ?? ?? + ?? ?? ??

雖然微小擾動??通過神經(jīng)網(wǎng)絡(luò)權(quán)重的內(nèi)積導(dǎo)致擾動放大,若權(quán)重維度為 n 均值為 m,則顯然??????的最大值為εmn,此時(shí)?? = ??????????(??)。因此在高維空間中,即使是很小的擾動,也會對最終的輸出值產(chǎn)生很大的影響。

3.發(fā)展過程

在調(diào)研該領(lǐng)域的論文的過程中,我發(fā)現(xiàn),作為machine learning security 的方向,對抗攻擊的發(fā)展可以歸結(jié)為兩個(gè)核心:

不斷尋找新的應(yīng)用場景

不斷利用新的算法

3.1 不斷尋找新的應(yīng)用場景

每當(dāng) machine learning有新的領(lǐng)域出現(xiàn),研究者都會試圖在該領(lǐng)域上進(jìn)行對抗攻擊的研究,來研究出攻擊這種領(lǐng)域的方法和防御的方法。以下是我找到的一些典型領(lǐng)域的對抗攻擊研究成果:

3.1.1 Computer vision

  • Attacks for classification

圖片分類是計(jì)算機(jī)視覺最經(jīng)典的任務(wù),因此在這個(gè)應(yīng)用場景的對抗攻擊論文最多,比如:Jacobian-based Saliency Map Attack (JSMA)[1],One Pixel Attack[2],DeepFool[3]等。

這些論文的思想都是相同的:都是通過將圖像的像素點(diǎn)按順序或是隨機(jī)一個(gè)一個(gè)改變,然后通過隱藏層的梯度來計(jì)算該點(diǎn)的改變對整張圖片的攻擊顯著性并且根據(jù)梯度來選擇下一個(gè)要改變的點(diǎn),通過這樣的訓(xùn)練最終可以找到最優(yōu)的攻擊像素。

其中,我認(rèn)為 One Pixel Attack[2]的工作效果最顯著,這篇論文僅改變一個(gè)像素就能完成對整張圖片的攻擊。我認(rèn)為最有新意的一點(diǎn)是,作者運(yùn)用了差分進(jìn)化算法的思想,通過每一代不斷變異然后“優(yōu)勝劣汰”,最后可以找到足以攻擊整張圖片的一個(gè)像素點(diǎn)和其 RGB值的修改值,這種方法的優(yōu)點(diǎn)是屬于黑盒攻擊,不需要知道網(wǎng)絡(luò)參數(shù)等任何信息。效果如下,我認(rèn)為很顯著:

  • Attacks on Semantic Segmentation and Object Detection

語義分割任務(wù)的對抗攻擊要比分類任務(wù)要難很多,語義分割的對抗樣本生成[4]利用了Dense Adversary Generation 的方法,通過一組pixels/proposal 來優(yōu)化生成對抗樣本損失函數(shù),然后用所生成的對抗樣本來攻擊基于深度學(xué)習(xí)的分割和檢測網(wǎng)絡(luò)。

這篇論文的亮點(diǎn)我認(rèn)為在于將對抗攻擊的概念轉(zhuǎn)換為對抗樣本生成的概念,將一個(gè)攻擊任務(wù)轉(zhuǎn)換為生成任務(wù),這就給我們提供了一種新的攻擊思路:將這個(gè)任務(wù)轉(zhuǎn)換為如何選取損失函數(shù)、如何搭建生成模型使得生成的對抗樣本在攻擊圖片時(shí)有更好的效果。這種概念的轉(zhuǎn)換使得對抗攻擊不再拘束于傳統(tǒng)的基于 FGSM 算法,也將更多的生成模型引入進(jìn)來,比如GAN。

我認(rèn)為在計(jì)算機(jī)視覺的對抗攻擊的局限在于,由于計(jì)算機(jī)視覺的子領(lǐng)域非常多,所以有一些領(lǐng)域還沒有人去嘗試過,而且由于深度學(xué)習(xí)的不可解釋性,現(xiàn)階段只能也通過深度學(xué)習(xí)去生成對抗樣本去破壞目標(biāo)的學(xué)習(xí),這樣的攻擊是沒有方向性的,比如無法控制分類任務(wù)的欺騙方向,我認(rèn)為下一步的發(fā)展應(yīng)在于如何去定向欺騙深度學(xué)習(xí)網(wǎng)絡(luò),來達(dá)到一些更高要求的目的。

3.1.2. Graph

在今年的 ICML 和 KDD 的論文中,有兩篇關(guān)于對圖結(jié)構(gòu)的對抗攻擊的論文,一篇是Adversarial Attack on Graph Structured Data[5],另一篇是 Adversarial attacks on neuralnetworks for graph data[6]。這兩篇論文都是對 graph 的攻擊,這是以前從未有人做過的任務(wù),是一種新的應(yīng)用場景,因此前文我說對抗攻擊發(fā)展還十分稚嫩,還在不斷尋找新的應(yīng)用場景。

由于 graph 結(jié)構(gòu)數(shù)據(jù)可以建?,F(xiàn)實(shí)生活中的很多問題,現(xiàn)在也有很多研究者在研究這種問題,比如知識圖譜等領(lǐng)域。

拿知識圖譜來舉例,現(xiàn)在百度、阿里巴巴等公司都在搭建知識圖譜,如果我能攻擊知識圖譜,在圖上生成一些欺騙性的結(jié)點(diǎn),比如虛假交易等行為,這會對整個(gè)公司帶來很大損失,所以對圖結(jié)構(gòu)的攻擊和防御都很有研究價(jià)值。

這兩篇論文的出發(fā)點(diǎn)都是深度學(xué)習(xí)模型在圖分類問題中的不穩(wěn)定性。

第一篇論文定義了基于圖模型的攻擊:在保持圖分類結(jié)果不變的情況下,通過小規(guī)模的增加和減少邊的方式, 最大化分類結(jié)果的錯(cuò)誤率?;诖?,論文提出了基于分層強(qiáng)化學(xué)習(xí)的方法來創(chuàng)建對抗樣本。 

第二篇論文的思想是對于要攻擊的目標(biāo)節(jié)點(diǎn),產(chǎn)生一個(gè)干擾圖,使得新圖上的目標(biāo)節(jié)點(diǎn)的分類概率和老圖上目標(biāo)節(jié)點(diǎn)的分類概率的差距最大,作者提出了Nettack的攻擊模型。

我認(rèn)為現(xiàn)階段對圖結(jié)構(gòu)的對抗攻擊的局限在于以下兩點(diǎn):

  1. 沒有有效的防御算法。兩篇論文都在講如何去攻擊圖分類問題,但是對于防御問題, 第一篇論文只簡單討論了一下,比如隨機(jī) dropout,但是展示的結(jié)果很不理想,而第二篇論文根本沒有討論防御問題。因此對圖結(jié)構(gòu)的防御問題是接下來的一個(gè)可發(fā)展的方向。

  2. 現(xiàn)階段圖深度學(xué)習(xí)發(fā)展還不完善,沒有形成一個(gè)像圖片卷積神經(jīng)網(wǎng)絡(luò)那樣的完整體系,GCN、隨機(jī)游走等算法都各有利弊,所以在整個(gè)體系完成之前,對抗攻擊的發(fā)展方向不是很明朗。我個(gè)人覺得隨著可微池化[7]的概念的提出,GCN 應(yīng)該是以后圖深度學(xué)習(xí)的發(fā)展方向,所以對GCN的攻擊或許很有潛力。

3.1.3 其他領(lǐng)域的對抗攻擊

近期也有一些其他領(lǐng)域的對抗攻擊。

首先,Adversarial Examples for Evaluating Reading Comprehension Systems[8]這篇論文對QA系統(tǒng)進(jìn)行對抗攻擊,通過向問題中中加入不影響人類理解并且不影響正確答案的句子來欺騙問答系統(tǒng),來獲得錯(cuò)誤的答案。論文中給出的結(jié)果很顯著,使原先75%的 F1 score 下降至 36%,如果允許不符合語法規(guī)則的話可以下降至 7%。

其次,對于強(qiáng)化學(xué)習(xí)的對抗攻擊。Lin等[9]提出了兩種不同的針對深度強(qiáng)化學(xué)習(xí)訓(xùn)練的代理的對抗性攻擊。在第一種攻擊中,被稱為策略定時(shí)攻擊,對手通過在一段中的一小部分時(shí)間步驟中攻擊它來最小化對代理的獎(jiǎng)勵(lì)值。提出了一種方法來確定什么時(shí)候應(yīng)該制作和應(yīng)用對抗樣本,從而使攻擊不被發(fā)現(xiàn)。在第二種攻擊中,被稱為迷人攻擊,對手通過集成生成模型和規(guī)劃算法將代理引誘到指定的目標(biāo)狀態(tài)。生成模型用于預(yù)測代理的未來狀態(tài),而規(guī)劃算法生成用于引誘它的操作。這些攻擊成功地測試了由最先進(jìn)的深度強(qiáng)化學(xué)習(xí)算法訓(xùn)練的代理。

還有一些對于 RNN, Speech Recognition 等領(lǐng)域的攻擊[10][11],這些領(lǐng)域的對抗攻擊基本上只有一兩篇。

綜上所述,對于對抗攻擊的應(yīng)用場景,現(xiàn)階段所發(fā)掘的只不過是冰山一角,在這個(gè)領(lǐng)域, 還有很多很多應(yīng)用場景可以進(jìn)行研究。因此,僅從應(yīng)用場景而言,對抗攻擊絕對是最近幾年最具潛力的方向。

3.2 算法

對抗攻擊的本質(zhì)是用機(jī)器學(xué)習(xí)的方法去攻擊機(jī)器學(xué)習(xí)模型,來檢測模型的魯棒性。由于它的攻擊目標(biāo)和自身所用的方法都是機(jī)器學(xué)習(xí),所以當(dāng)機(jī)器學(xué)習(xí)領(lǐng)域出現(xiàn)了更好的算法時(shí),對于對抗攻擊而言,這既是新的應(yīng)用場景,又是自身可用的新算法。

在 Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey[14]這篇論文中總結(jié)了12種攻擊方法,如下圖所示:

經(jīng)過我的調(diào)研,在論文 Adversarial Examples for Semantic Segmentation and Object Detection[4]的啟發(fā)下,我認(rèn)為,既然對抗攻擊是對抗樣本的生成任務(wù),而生成任務(wù)又是現(xiàn)在發(fā)展非常迅速的一個(gè)領(lǐng)域,我們可以把一些生成模型遷移到這個(gè)任務(wù)上來。

比如,現(xiàn)在非常熱門的對抗生成網(wǎng)絡(luò) GAN 是生成任務(wù)最有效的模型之一,我認(rèn)為可以借用這種對抗的思想生成對抗樣本:一個(gè)專門向原數(shù)據(jù)中加噪聲的網(wǎng)絡(luò)和一個(gè)試圖根據(jù)對抗樣本完成分類任務(wù)的網(wǎng)絡(luò),兩個(gè)網(wǎng)絡(luò)就像 GAN 里面的生成器和鑒別器一樣對抗學(xué)習(xí),最后會收斂于加噪聲的網(wǎng)絡(luò)生成的對抗樣本足以迷惑分類網(wǎng)絡(luò),這樣生成的對抗樣本或許會比前文所述的方法效果更好。

由于生成任務(wù)還在不斷發(fā)展,VAE、GAN 等模型或許都可以用于對抗攻擊,近期新出現(xiàn)的 CoT[15](合作訓(xùn)練)為離散數(shù)據(jù)的生成任務(wù)也提供了一種新的思路,Glow[16]提出了基于流的可逆生成模型,據(jù)說效果會超過GAN......這些生成模型不斷在發(fā)展,可供對抗樣本生成借鑒的思路也越來越多,所以,我認(rèn)為在算法上對抗攻擊還有無限的潛力。

4. 總結(jié)

經(jīng)過對對抗攻擊的調(diào)研,首先,我發(fā)現(xiàn)這一領(lǐng)域的論文數(shù)很少,而且受大眾的關(guān)注度不是很高,但是對抗攻擊已經(jīng)有趨勢要迎來蓬勃發(fā)展的時(shí)期了。

其次,對抗攻擊還處于尋找新的應(yīng)用場景和不斷嘗試新的算法的階段,還不成熟,未形 成完整的體系,而且和攻擊與生俱來的還有防御問題,現(xiàn)階段防御問題基本還處于把對抗樣本加入原始數(shù)據(jù)一起訓(xùn)練以此來防御攻擊的狀態(tài),研究的人很少,也沒有十分顯著的效果。 這說明在這個(gè)領(lǐng)域還有很大的可挖掘的空間。

在機(jī)器學(xué)習(xí)發(fā)展飛速的今天,安全性問題正逐漸進(jìn)入人們的的視野,對抗攻擊不只能夠 在網(wǎng)絡(luò)空間進(jìn)行攻擊,還能夠在物理世界中任何使用到機(jī)器學(xué)習(xí)的場景中進(jìn)行有效攻擊,比如針對人臉識別、語音識別的攻擊。為了機(jī)器學(xué)習(xí)更好的發(fā)展,研究對抗攻擊是有必要的。 因此我認(rèn)為最近的科技新詞是adversarial attack。

5. 引用

[1] N. Papernot, P. McDaniel, S. Jha, M. Fredrikson, Z. B. Celik, A.Swami, The Limitations of Deep Learning in Adversarial Settings, In Proceedings of IEEE European Symposium on Security and Privacy, 2016.
[2] J. Su, D. V. Vargas, S. Kouichi, One pixel attack for fooling deep neural networks, arXiv preprint arXiv:1710.08864, 2017.

[3] S. Moosavi-Dezfooli, A. Fawzi, P. Frossard, DeepFool: a simple and accurate method to fool deep neural networks, In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2574-2582, 2016.

[4] C. Xie, J. Wang, Z. Zhang, Y. Zhou, L. Xie, and A. Yuille, Adversarial Examples for Semantic Segmentation and Object Detection, arXiv preprint arXiv:1703.08603, 2017.

[5] Dai, Hanjun, Hui Li, Tian Tian, Xin Huang, Lin Wang, Jun Zhu, and Le Song. "Adversarial Attack on Graph Structured Data." In International Conference on Machine Learning (ICML), vol. 2018. 2018.
[6] Zu?gner, Daniel, Amir Akbarnejad, and Stephan Gu?nnemann. "Adversarial attacks on neural networks for graph data." In Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pp. 2847-2856. ACM, 2018.

[7] Ying R, You J, Morris C, et al. Hierarchical graph representation learning with differentiable pooling[J]. CoRR, 2018

[8] Jia R, Liang P. Adversarial examples for evaluating reading comprehension systems[J]. arXiv preprint arXiv:1707.07328, 2017.

[9] Y. Lin, Z. Hong, Y. Liao, M. Shih, M. Liu, and M. Sun, Tactics of Adversarial Attack on Deep Reinforcement Learning Agents, arXiv preprint arXiv:1703.06748, 2017.

[10] Papernot N, McDaniel P, Swami A, et al. Crafting adversarial input sequences for recurrent neural networks[C]//Military Communications Conference, MILCOM 2016-2016 IEEE. IEEE, 2016:49-54

[11] Carlini N, Wagner D. Audio adversarial examples: Targeted attacks on speech-to-text[J]. arXiv preprint arXiv:1801.01944, 2018.

[12] C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, R. Fergus, Intriguing properties of neural networks, arXiv preprint arXiv:1312.6199, 2014.

[13] I. J. Goodfellow, J. Shlens, C. Szegedy, Explaining and Harnessing Adversarial Examples, arXiv preprint arXiv:1412.6572, 2015.

[14] Akhtar N, Mian A. Threat of adversarial attacks on deep learning in computer vision: A survey[J]. arXiv preprint arXiv:1801.00553, 2018

[15] Lu S, Yu L, Zhang W, et al. CoT: Cooperative Training for Generative Modeling[J]. arXiv preprint arXiv:1804.03782, 2018.

[16] Kingma D P, Dhariwal P. Glow: Generative flow with invertible 1x1 convolutions[J]. arXiv preprint arXiv:1807.03039, 2018.

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    国产免费一区二区三区不卡| 欧美日韩免费观看视频| 欧美日韩国产的另类视频| 亚洲欧美日韩在线看片| 亚洲人妻av中文字幕| 国产精品免费不卡视频| 亚洲另类女同一二三区| 中文字幕欧美视频二区| 亚洲熟女乱色一区二区三区| 男女午夜福利院在线观看| 扒开腿狂躁女人爽出白浆av | 国产乱淫av一区二区三区| 老熟女露脸一二三四区| 日韩精品一区二区三区射精| 中文日韩精品视频在线| 亚洲高清中文字幕一区二区三区| 超碰在线免费公开中国黄片| 亚洲中文字幕在线乱码av | 亚洲视频偷拍福利来袭| 国产中文字幕一二三区| 日韩欧美一区二区黄色| 欧美胖熟妇一区二区三区| 国产午夜福利不卡片在线观看| 91国内视频一区二区三区| 91人妻人人做人碰人人九色| 国产一级片内射视频免费播放 | 99一级特黄色性生活片| 久久精品中文扫妇内射| 中文字幕久久精品亚洲乱码| 热久久这里只有精品视频| 国产又粗又长又爽又猛的视频| 日韩高清一区二区三区四区| 亚洲国产婷婷六月丁香| 都市激情小说在线一区二区三区| 日韩精品一区二区三区含羞含羞草 | 99热在线播放免费观看| 久久99爱爱视频视频| 色播五月激情五月婷婷| 伊人色综合久久伊人婷婷| 少妇人妻一级片一区二区三区| 字幕日本欧美一区二区|