一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

人工智能與信息安全:新的革命與挑戰(zhàn)

 天承辦公室 2021-09-04

人工智能,是一種借鑒生物感知系統(tǒng)和神經(jīng)系統(tǒng)來開發(fā)相應模擬算法的計算機技術(shù),其主要特點是可從數(shù)據(jù)中學習特征并進行自我迭代訓練。

文章圖片1

通常,人工智能算法往往需要大量的數(shù)據(jù)以及龐大的計算資源作為支撐。隨著計算機硬件的迅猛發(fā)展以及互聯(lián)網(wǎng)時代下海量信息的積累,這使得構(gòu)建復雜的人工智能算法變得可能。2016年,由谷歌公司旗下DeepMind研發(fā)的圍棋人工智能系統(tǒng)AlphaGo[1]以4比1的戰(zhàn)績打敗了人類頂尖棋手李世石。自此,人工智能技術(shù)開始了爆發(fā)式發(fā)展。

在網(wǎng)絡安全領域,全球越來越多的公司正在嘗試將人工智能、機器學習等集成到產(chǎn)品之中,智能化(Intelligence)、自動化(Automatic)都是網(wǎng)絡安全領域的熱詞。

我國于2017年7月8日印發(fā)《新一代人工智能發(fā)展規(guī)劃》,標志著我國人工智能發(fā)展進入到國家戰(zhàn)略層面。近日發(fā)布的“十四五”規(guī)劃綱要中,共有6處提及人工智能,并將“前沿基礎理論突破,專用芯片研發(fā),深度學習框架等開源算法平臺構(gòu)建,學習推理與決策、圖像圖形、語音視頻、自然語言識別處理等領域創(chuàng)新”視為新一代人工智能領域的重點攻關(guān)方向。

近幾年來,人工智能技術(shù)不斷取得各種令人驚嘆的成果,我國人工智能領域發(fā)展可謂突飛猛進,《中國人工智能發(fā)展報告2020》顯示,過去十年全球人工智能專利申請量超52萬件。中國專利申請量為389571件,位居世界第一,占全球總量的74.7%。人工智能被應用于越來越多的行業(yè)之中,尤其是在計算機視覺、自然語言處理、游戲?qū)沟阮I域。

人工智能的應用

在計算機視覺領域,主流的人工智能技術(shù)是卷積神經(jīng)網(wǎng)絡[2,3,4],卷積神經(jīng)網(wǎng)絡借鑒了生物視覺神經(jīng)系統(tǒng)的工作方式,對視覺信息進行類似于視神經(jīng)細胞一般的處理,之后作出相應的響應。相較于傳統(tǒng)視覺算法,卷積神經(jīng)網(wǎng)絡取得了前所未有的成功。憑借其高準確率,已然成為該領域下各種復雜任務中最受歡迎的解決方案。例如在人臉識別、目標跟蹤、自動駕駛等領域。

在自然語言處理領域,基于人工智能技術(shù)的語言模型更深層次加深了計算機對語言處理的理解。例如谷歌于2019年推出的Transformer模型[5],其在推薦系統(tǒng),用戶行為分析,機器翻譯等語言文本任務領域被廣泛應用。

在游戲?qū)诡I域,主流的人工智能技術(shù)是強化學習[6,7],由于游戲有明確的規(guī)則,利用強化學習算法可以使智能體(計算機)在自我對弈中找到最優(yōu)解。近年來,強化學習技術(shù)開始“出圈”,逐漸被應用到各種行業(yè)中,如機器人控制、自動駕駛等領域。

由于人工智能算法極其復雜,且人工智能模型內(nèi)部包含大量參數(shù),這導致對其進行定量的分析變得極其困難。隨著人工智能技術(shù)的廣泛應用,尤其是在一些對信息安全極其敏感的行業(yè)中應用人工智能技術(shù),例如人臉識別、自動駕駛、癌癥診斷、國防與關(guān)乎人民生命財產(chǎn)安全息息相關(guān)的方面,如果不謹慎對待,這些安全隱患很可能在某個節(jié)點徹底爆發(fā)。所以,對人工智能技術(shù)的安全性研究變得尤為重要。

人工智能自身的安全性

以深度神經(jīng)網(wǎng)絡為代表的人工智能技術(shù)由于其算法復雜,參數(shù)眾多,需海量數(shù)據(jù)驅(qū)動等特性使得其自身具有眾多安全缺陷,這些缺陷主要發(fā)生在兩個階段:AI模型的訓練階段以及應用階段。其中訓練階段攻擊者主要利用AI模型的數(shù)據(jù)驅(qū)動特性,針對訓練數(shù)據(jù)以及訓練所使用的算法發(fā)起攻擊[10],使AI模型偏離原本的訓練目的。在應用階段,攻擊者主要利用AI模型本身特性來誘導模型作出錯誤推斷。我們分別從攻擊手段和防御手段兩個角度來闡述在兩個階段中人工智能自身的安全性問題。

模型訓練階段

?攻擊手段

訓練數(shù)據(jù)集投毒——當前絕大多數(shù)AI算法的所有知識完全依賴于訓練數(shù)據(jù)集之上:攻擊者對數(shù)據(jù)集發(fā)起投毒,通過向數(shù)據(jù)集中引入不正確的標簽,將AI系統(tǒng)的學習引到錯誤的方向上,以使模型將學到的特征模式與錯誤的標簽相關(guān)聯(lián),從而實現(xiàn)為攻擊者的目的。數(shù)據(jù)集通常包含數(shù)百萬個樣本,這些樣本很多時候來自公共資源。即便數(shù)據(jù)集由私人收集,攻擊者也可能入侵數(shù)據(jù)存儲系統(tǒng)并向其引入中毒樣本來破壞本來有效的數(shù)據(jù)集。已有報告指出,即使訓練集中僅含有3%的數(shù)據(jù)污染,數(shù)據(jù)投毒依然可以讓模型精確度下降11%。

算法投毒——此種攻擊方式是利用AI學習算法中的薄弱環(huán)節(jié)。算法投毒攻擊針對聯(lián)邦學習算法[11,12]的威脅尤其巨大。聯(lián)邦學習在每個節(jié)點上訓練一組小模型,之后將這些小模型匯總在一起,以形成最終模型。由于每個節(jié)點的私有數(shù)據(jù)僅在自身上被用于訓練,因此可以保護他們的隱私。雖然聯(lián)邦學習是一種解決用戶數(shù)據(jù)因素的良好方案,但其容易受到算法投毒攻擊。由于攻擊者可以掌握那些受自己控制節(jié)點的設備運作,因此他們可以操縱節(jié)點上的運行數(shù)據(jù)和算法來毒化模型。

?防御手段

使用可信任的數(shù)據(jù)集以及云托管平臺。訓練前應用檢測機制,檢查數(shù)據(jù)集是否被污染。設置準確度閾值,在每個訓練周期后使用該閾值測試模型,若測試結(jié)果發(fā)生巨大變化,則極有可能存在數(shù)據(jù)污染。盡量使用離線訓練,一方面攻擊者無法從離線訓練中得到即時反饋,另一方面也提供了審查數(shù)據(jù)的機會。

模型應用階段

?攻擊手段

白盒攻擊——攻擊者了解所要攻擊AI目標的模型結(jié)構(gòu)、參數(shù)等信息。通過利用這些信息,攻擊者可以構(gòu)造出針對AI模型的對抗樣本,這些對抗樣本往往可以使模型作出錯誤的判斷,甚至誘導模型輸出到攻擊者指定的方向。此類攻擊方式主要分為基于梯度的攻擊手段(FGSM[13], PGD[14]),基于優(yōu)化的攻擊手段(CW[15]),基于決策面的攻擊手段(DeepFool[16])。

黑盒攻擊——攻擊者無法了解目標AI所使用的模型以及參數(shù),模型內(nèi)部是否具有防御手段等信息,攻擊者只知道模型的輸入以及輸出。黑盒攻擊相比白盒攻擊要困難許多:因為缺少關(guān)于模型的信息,黑盒攻擊往往需要對模型進行大量查詢,根據(jù)查詢本身以及模型輸出結(jié)果不斷執(zhí)行迭代以此來重構(gòu)模型本身的行為,從而構(gòu)建對抗樣本?,F(xiàn)實中,攻擊者遇到的往往是黑盒攻擊。黑盒攻擊算法相較于白盒攻擊更具有通用性。近年來,已涌現(xiàn)出很多優(yōu)秀的黑盒攻擊技術(shù):如模擬攻擊[17],這種攻擊手段允許攻擊者只需要少量查詢,根據(jù)這些查詢結(jié)果以及一些經(jīng)典的AI模型來訓練并構(gòu)建“代理網(wǎng)絡”,待訓練結(jié)束之后代理網(wǎng)絡能夠逼近目標AI模型的輸出。

模型替換——攻擊者使用中毒模型代替正常模型。這一點很容易由傳統(tǒng)的網(wǎng)絡攻擊實現(xiàn)。完成訓練的模型也是計算機文件,與圖像或PDF文檔沒有什么不同。攻擊者可以入侵持有成熟模型的系統(tǒng),然后更改模型文件或?qū)⑵渫耆鎿Q為受攻擊者控制的中毒模型。

文章圖片2

?防御手段

可在AI模型的訓練集中增添一些被干擾過的數(shù)據(jù),使模型對含有噪聲的樣本更加具有魯棒性?;蚴褂镁W(wǎng)絡蒸餾技術(shù),在同一個訓練集上訓練多個不同的AI模型,最后使用這些模型的平均值作為輸出,此種方法需要大量的資源,但也有更高的精確度與較高的魯棒性。在模型成型之后,亦可對輸入的數(shù)據(jù)進行一定的去除噪聲預處理(如使用高斯平滑濾波器等)來達到防御對抗樣本的目的。

人工智能在信息攻防戰(zhàn)中的應用

攻擊方

人工智能技術(shù)具有可自我學習數(shù)據(jù)特征,算法結(jié)構(gòu)具有一定通用性的特點,借助該特點很多傳統(tǒng)的攻擊手段不僅可大幅提升攻擊命中率,還可以擺脫很多繁瑣且的且昂貴的人工成本。不僅如此,當下最為先進的人工智能技術(shù)還可生成逼真的虛擬數(shù)據(jù)(圖片、視頻、音頻、文本等)。

?數(shù)據(jù)偽造與篡改:2014年,由Ian J.Goodfellow等人提出了基于深度學習的生成對抗網(wǎng)絡模型[19]。生成對抗網(wǎng)絡由一個生成網(wǎng)絡與一個判別網(wǎng)絡組成。生成網(wǎng)絡從數(shù)據(jù)表征的潛在空間中(latent space)中進行隨機取樣作為輸入,其輸出結(jié)果需要盡量模仿訓練集中的真實樣本。判別網(wǎng)絡的輸入則為真實樣本和生成網(wǎng)絡的輸出,其目的是將生成網(wǎng)絡的輸出從真實樣本中盡可能分辨出來。兩個網(wǎng)絡相互對抗、不斷調(diào)整參數(shù),最終目的是使判別網(wǎng)絡無法判斷生成網(wǎng)絡的輸出結(jié)果是否真實。

2017年,在Reddit論壇上出現(xiàn)了使用生成對抗網(wǎng)絡對視頻中人物進行換臉的技術(shù),名為Deepfake,只要有臉部照片,這項技術(shù)就能夠?qū)⒁曨l中的人臉替換成任意一個目標人臉,而且效果十分的逼真,肉眼難辨真假。隨著Deepfakes的興起,已有人將該技術(shù)應用到不法行業(yè)上,根據(jù)華盛頓郵報的一篇報道,在英國已出現(xiàn)使用AI合成語音進行詐騙的案例;在微信和qq等社交網(wǎng)絡上已出現(xiàn)兜售基于Deepfake技術(shù)“定制”色情視頻的團伙。不止在圖像與語音領域,由OpenAI創(chuàng)建的GPT-2模型可模擬人類不同的寫作風格,只需根據(jù)一小段主題便可完全自主生成逼真的假新聞。

利用AI進行數(shù)據(jù)偽造正在沖擊著我們“眼見為實,耳聽為實”的世界,給社會安全、網(wǎng)絡安全、國家安全等眾多領域帶來前所未見的沖擊。在人臉、語音等生物特征識別已經(jīng)大范圍普及的當今社會,發(fā)展區(qū)分真假數(shù)據(jù)的技術(shù)已經(jīng)勢在必行。2019年6月,考慮到AI偽造數(shù)據(jù)在網(wǎng)絡上的快速傳播對民眾產(chǎn)生誤導,將會對2020年總統(tǒng)大選產(chǎn)生不可逆的影響,美國眾議員提議修改現(xiàn)行法律,在立法層面對AI數(shù)據(jù)偽造進行相關(guān)的打擊。同年,由Facebook領銜的相關(guān)學校和公司在更是投入1000萬美元舉辦Deepfake檢測挑戰(zhàn)賽。

文章圖片3

?定制化網(wǎng)絡釣魚:

網(wǎng)絡釣魚是—種網(wǎng)絡攻擊手段,指具有惡意動機的攻擊者對自己進行偽裝,利用欺詐性的電子郵件誘使用戶在偽造的網(wǎng)站上輸入敏感信息。

對于攻擊者來說,社交網(wǎng)絡是尋找受害者的重要資源。但是一般在社交媒體上的大多數(shù)網(wǎng)絡釣魚嘗試成功率都非常的低。在2016年Black Hat USA上,研究人員發(fā)布了一種基于遞歸神經(jīng)網(wǎng)絡的“定制化”釣魚工具—SNAP-R[20],該模型可以針對社交網(wǎng)絡上特定用戶群體發(fā)送其感興趣的釣魚推文。SNAP-R首先會獲取一個來自Twitter用戶名的列表,之后會收集已知的用戶行為使用AI技術(shù)對用戶進行分類,如果用戶較為容易受到蠱惑且具有較高的價值,SNAP-R會使用遞歸神經(jīng)網(wǎng)絡技術(shù)對用戶發(fā)表的歷史推文,用戶的回復等信息生成虛假的推文內(nèi)容,并在其中植入釣魚鏈接。相較于傳統(tǒng)技術(shù),采用遞歸神經(jīng)網(wǎng)絡技術(shù)生成的推文更為逼真,邏輯自洽。且SNAP-R還可以根據(jù)用戶的歷史上線時間對用戶的活躍時間規(guī)律進行建模,使之能夠在用戶活躍的時候向其發(fā)送相關(guān)信息。針對SNAP-R的測試也證實,借助遞歸神經(jīng)網(wǎng)絡將釣魚成功率提升了30%-35%。

文章圖片4

?智能化漏洞搜索:

隨著如今計算機系統(tǒng)與應用軟件的日益復雜化,新發(fā)現(xiàn)的安全漏洞也在逐年增加。傳統(tǒng)的漏洞搜索需要由具備信息安全相關(guān)經(jīng)驗的安全專家對代碼進行大量分析,人工費用昂貴,操作繁瑣且耗時。

安全漏洞檢測的根基是大多數(shù)存在問題的代碼具有相似性,而深度學習技術(shù)能夠高效學習數(shù)據(jù)中的特征表示和復雜的非線性結(jié)構(gòu),利用深度學習來建模漏洞的結(jié)構(gòu)以及相關(guān)的語義特征之后,AI系統(tǒng)會自動對代碼進行對比,評估存在漏洞的可能性。相較于傳統(tǒng)的漏洞檢測技術(shù),AI的使用可以更好地對漏洞特征進行建模,且生成的模型具有良好的泛化性能。這極大的提高了漏洞挖掘的時間與效率,且節(jié)約了相當可觀的人力物力資源。

因此使用基于深度學習的AI技術(shù)進行系統(tǒng)的漏洞挖掘前景巨大。當下結(jié)合AI進行漏洞檢測的方法主要集中于以下幾點:

a.從二進制代碼中檢測漏洞:將二進制文件看作字節(jié)序列或者機器指令的集合,采用處理對象序列的深度學習模型(如遞歸神經(jīng)網(wǎng)絡)進行特征提取。在模型的訓練階段可使用類似語言模型的無監(jiān)督訓練方式,從而避免了對大量數(shù)據(jù)進行標注。之后進行有監(jiān)督的微調(diào),使模型在訓練出的嵌入空間中能夠表征漏洞[21]。

b.將二進制代碼轉(zhuǎn)換為控制流程圖(如CFG, AST等)。結(jié)合AI的模型會對這些流程圖進行建模分析,以便利用代碼中的語義以及句法結(jié)構(gòu)的信息。譬如使用圖神經(jīng)網(wǎng)絡(GNN)對代碼的流程圖進行圖嵌入,訓練完成之后的模型便可基于漏洞代碼所具有的獨特邏輯結(jié)構(gòu)進行發(fā)掘[22]。

c.使用生成對抗網(wǎng)絡技術(shù)對漏洞數(shù)據(jù)集代碼進行增強,生成對抗網(wǎng)絡技術(shù)可以對數(shù)據(jù)核心特征進行建模并找到其編碼空間,從編碼空間中抽取的樣本可能會發(fā)現(xiàn)之前沒有見過的全新漏洞,這為漏洞發(fā)掘提供了全新的思路與方向。

水能載舟,亦能覆舟,智能化的漏洞搜索可以是黑客的攻擊手段,當然也可以成為防御利器,只要在產(chǎn)品發(fā)布前,將漏洞查找出來,危機自然能消弭于無形。深入網(wǎng)絡安全行業(yè),極光無限率先布局,以AI賦能實戰(zhàn),助推網(wǎng)絡安全智能化。在無人區(qū)探索兩年以后,我們建立了大型漏洞數(shù)據(jù)集,提出了一種利用神經(jīng)語言模型結(jié)合圖神經(jīng)網(wǎng)絡的方法來進行漏洞的識別,推出了AI自動化漏洞挖掘產(chǎn)品——維陣,對未知漏洞具備檢測、預警、快速響應和處置等主動防護的能力,助力未來網(wǎng)絡安全防御體系全局化、整體化發(fā)展。

防御方

?借助AI檢測WEB攻擊

當前,大多數(shù)針對WAF惡意請求的檢測主要集中于撰寫規(guī)則或正則表達式。但面對海量的惡意請求,一方面不同的惡意請求具有各種不同的規(guī)則,想要編寫萬能的正則表達式幾乎不可能實現(xiàn),且機械式的規(guī)則往往會造成誤判。另一方面,基于規(guī)則的檢測無法發(fā)現(xiàn)新型的攻擊。針對以上兩點,可以使用長短期記憶網(wǎng)絡(LSTM)來解決。一般情況下在日志中關(guān)鍵詞的二義性往往是造成誤判的主要原因。針對字符級別的LSTM可以根據(jù)上下文判斷關(guān)鍵詞在出現(xiàn)之處的具體含義。也因如此,使用LSTM的WAT攻擊識別也具備了一定對未知攻擊的識別能力,由于LSTM將每個字符作為特征,且字符之間具有上下文聯(lián)系,對于某些摻雜了特殊字符之后的命令,使用LSTM的模型亦有能力將其識別出來。

除此之外,也可使用基于詞嵌入的深度學習技術(shù)進行惡意請求識別,該方法首先會使用詞嵌入對數(shù)據(jù)包進行降維處理,此舉旨在減少數(shù)據(jù)包的有效荷載維數(shù),之后使用深度卷積神經(jīng)網(wǎng)絡對潛入之后的詞向量提取局部特征,最后于頭部特征一起送入LSTM學習全局時態(tài)特征,從而識別惡意請求。相較于簡單的字符級LSTM,此方法雖然復雜,但檢測精度也更加高效[24]。

?自動化滲透測試

滲透測試是對系統(tǒng)進行受控攻擊,進而評估其安全性,是提高網(wǎng)絡防御能力的關(guān)鍵方法之一。但是,網(wǎng)絡滲透測試需要專業(yè)的人員以及大量的時間。高效解決此問題的一種方式是將人工智能技術(shù)應用于滲透領域,以使?jié)B透測試過程自動化。

已有研究證明了強化學習(RL)在自動滲透測試中的應用[25]。RL是一種AI優(yōu)化技術(shù),其主要優(yōu)勢在于它不需要環(huán)境模型即可生成攻擊策略,而是通過與環(huán)境交互來學習最佳策略。強化學習將網(wǎng)絡的已知配置作為狀態(tài),將可用的掃描作為操作,由網(wǎng)絡上的“主機價值”來確定獎勵,并使用非確定性操作對機器的掃描結(jié)果建模。模型根據(jù)獲得的獎勵以及過去的經(jīng)驗來不斷調(diào)整自身的行為。以獲取最大化的獎勵。研究發(fā)現(xiàn),只要了解網(wǎng)絡拓撲以及可用的掃描和漏洞利用的知識,強化學習算法能夠找到針對各種不同網(wǎng)絡拓撲的最佳攻擊路徑。

文章圖片5
文章圖片6

(圖5:結(jié)合深度學習的強化學習,代理使用神經(jīng)網(wǎng)絡評估更新自身的策略)

?流量數(shù)據(jù)包自動分類

眾所周知,計算機網(wǎng)絡的保護與維護的成本日益居高不下,并且大多數(shù)保護措施無法針對0day漏洞作出高效響應,若對流量包進行深度分析又會引起侵犯用戶隱私等法律問題。綜上,結(jié)合機器學習的流量探測算法可以只從攔截的流量中提取元數(shù)據(jù),并使用這些數(shù)據(jù)建立數(shù)據(jù)分類模型,無需對流量包進行深度分析,從而在一定程度上避免了侵犯用戶隱私等問題,并且這種流量檢測算法理論上擁有檢測0day漏洞的能力。

該論文[26]提出了一種通用流量分類框架,首先根據(jù)可用信息提取其元數(shù)據(jù),之后使用并行聚類算法對信息進行聚合以實現(xiàn)實時處理,最后根據(jù)聚類結(jié)果創(chuàng)建可視化模型以便安全分析人員或網(wǎng)絡管理員來識別網(wǎng)絡內(nèi)部的各種情況。

文章圖片7

總結(jié)

人工智能作為第四次工業(yè)革命的核心應用技術(shù)之一,正以高度自動化和自主性的特性,創(chuàng)造出更為巨大的利益。與此同時,伴隨著“AI-as-a-Service”的普及,AI應用所需專業(yè)技能與知識門檻的降低,一定程度上增加了AI被惡意使用和濫用的可能性,進一步擴大了以人工智能為載體的安全威脅攻擊面。簡言之,人工智能在塑造一個更廣闊前景的同時,也因攻擊者的日趨深入,而成為誘發(fā)新數(shù)字、社會和政治威脅的額外動力。

歸根結(jié)底,對安全從業(yè)人員和安全公司而言,人工智能對信息安全來說無疑是一把雙刃劍:其帶來巨大技術(shù)革新的同時,亦帶來了前所未有的全新挑戰(zhàn)。一方面,由于人工智能是一門包含了計算機科學、數(shù)學、生物等方面的綜合性學科,如何掌握并使用人工智能,并將其應用在安全相關(guān)領域應成為傳統(tǒng)信息安全從業(yè)人員以及公司的關(guān)注重點。同時,針對數(shù)據(jù)的采集以及數(shù)據(jù)隱私問題更應該被嚴格對待,將網(wǎng)絡安全和數(shù)據(jù)保護放在首位,這要求相關(guān)部門、企業(yè)、研究人員進行協(xié)作,在保證數(shù)據(jù)的安全及隱私的同時,促進相關(guān)創(chuàng)新、法規(guī)建設、提高認識和開展研發(fā)活動,共同創(chuàng)建人工智能安全發(fā)展的健康環(huán)境。

引用文獻:

[1] Mastering the game of Go with deep neural networks and tree search.

[2] LeCun, Yann, et al. 'Gradient-based learning applied to document recognition.' Proceedings of the IEEE 86.11 (1998): 2278-2324.

[3]Krizhevsky, Alex, Ilya Sutskever, and Geoffrey E. Hinton. 'Imagenet classification with deep convolutional neural networks.' Advances in neural information processing systems 25 (2012): 1097-1105.

[4]He, Kaiming, et al. 'Deep residual learning for image recognition.' Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

[5]Vaswani, Ashish, et al. 'Attention is all you need.' arXiv preprint arXiv:1706.03762 (2017).

[6]Mnih, Volodymyr, et al. 'Playing atari with deep reinforcement learning.' arXiv preprint arXiv:1312.5602 (2013).

[7]Brown, Noam, et al. 'Combining deep reinforcement learning and search for imperfect-information games.' arXiv preprint arXiv:2007.13544 (2020).

[8]Brown, Tom B., et al. 'Language models are few-shot learners.' arXiv preprint arXiv:2005.14165 (2020).

[9]CLIP: Connecting Text and Images

[10]Learning to Confuse: Generating Training Time Adversarial Data with Auto-Encoder. Ji Feng, Qi zhi Cai. Zhi Hua Zhou.

[11]McMahan, Brendan, et al. 'Communication-efficient learning of deep networks from decentralized data.' Artificial Intelligence and Statistics. PMLR, 2017.

[12]Yang, Qiang, et al. 'Federated machine learning: Concept and applications.' ACM Transactions on Intelligent Systems and Technology (TIST) 10.2 (2019): 1-19.

[13]Goodfellow, Ian J., Jonathon Shlens, and Christian Szegedy. 'Explaining and harnessing adversarial examples.' arXiv preprint arXiv:1412.6572 (2014).

[14]Madry, Aleksander, et al. 'Towards deep learning models resistant to adversarial attacks.' arXiv preprint arXiv:1706.06083 (2017).

[15]Carlini, Nicholas, and David Wagner. 'Towards evaluating the robustness of neural networks.' 2017 ieee symposium on security and privacy (sp). IEEE, 2017.

[16]Moosavi-Dezfooli, Seyed-Mohsen, Alhussein Fawzi, and Pascal Frossard. 'Deepfool: a simple and accurate method to fool deep neural networks.' Proceedings of the IEEE conference on computer vision and pattern recognition. 2016.

[17]Ma, Chen, Li Chen, and Junhai Yong. 'MetaSimulator: Simulating Unknown Target Models for Query-Efficient Black-box Attacks.' arXiv preprint arXiv:2009.00960 (2020).

[18]Yin, Hongxu, et al. 'See through Gradients: Image Batch Recovery via GradInversion.' arXiv preprint arXiv:2104.07586 (2021).

[19]Generative Adversarial Networks. Ian J. Goodfellow, Jean Pouget-Abadie?, Mehdi Mirza, Bing Xu, David Warde. Sherjil Ozair, Aaron Courville, Yoshua Bengio.

[20]Weaponizing data science for social engineering: Automated E2E spear phishing on Twitter.

[21]Deep Learning for Cyber Vulnerability Discovery: NGTF Project Scoping Study. de Vel O, Hubczenko D, Kim J, Montague P, Xiang Y, Phung D, Zhang J, Murray T, Le T, Wen S, Liu S, Nguyen V, Lin G, Nguyen K, Le T, Nguyen T, Nock R, Qu L.

[22]Neural Network-based Graph Embedding for Cross-Platform Binary Code Similarity Detection. Xiaojun Xu, Chang Liu, Qian Feng, Heng Yin, Le Song, Dawn Song.

[23]Neural Reverse Engineering of Stripped Binaries. Yaniv David. Uri Alon. Eran Yahav.

[24]WEDL-NIDS: improving network intrusion detection using word embedding-based deep learning method. Cui, J., Long, J., Min, E., Mao, Y.

[25]Autonomous Penetration Testing using Reinforcement Learning. Jonathon Schwartz.

[26]Network Traffic Anomaly Detection Using Shallow Packet Inspection and Parallel K-means Data Clustering. Radu Velea. Casian Ciobanu. Laurentiu Margarit. Ion Bica.

#人工智能#

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    在线中文字幕亚洲欧美一区| 日本亚洲精品在线观看| 欧美成人久久久免费播放| 成人免费在线视频大香蕉 | 午夜福利视频日本一区| 国产一区一一一区麻豆| 国产在线一区中文字幕| 精品久久久一区二区三| 国产乱人伦精品一区二区三区四区| 大尺度剧情国产在线视频| 自拍偷拍福利视频在线观看| 久久精品国产亚洲av久按摩| 日韩人妻中文字幕精品| 国产精品成人一区二区在线| 色无极东京热男人的天堂| 精品人妻一区二区三区在线看| 国产又黄又猛又粗又爽的片| 午夜激情视频一区二区| 欧美日韩乱码一区二区三区| 日本免费熟女一区二区三区| 亚洲国产av在线视频| av国产熟妇露脸在线观看| 精品熟女少妇av免费久久野外| 极品少妇一区二区三区精品视频 | 欧美一区二区三区喷汁尤物| 欧美韩日在线观看一区| 青青草草免费在线视频| 大香蕉网国产在线观看av| 男人的天堂的视频东京热| 九九热精品视频在线观看| 国产精品欧美激情在线观看| 91精品国产av一区二区| 五月天六月激情联盟网| 国产精品乱子伦一区二区三区| 九九热这里只有免费精品| 日韩日韩日韩日韩在线| 成人精品网一区二区三区| 国产又粗又猛又长又黄视频| 欧美人禽色视频免费看| 国产av精品高清一区二区三区 | 亚洲一区二区三区福利视频|