【PConline 雜談】我們說,事物往往都是具有兩面性的,一項(xiàng)新技術(shù)在造福人類的同時(shí),也很可能被不法分子們利用。正因如此,有越來越多的安全人士開始擔(dān)憂,人工智能技術(shù)的發(fā)展會(huì)對未來網(wǎng)絡(luò)安全帶來威脅,因?yàn)榕c防御一方相比,攻擊一方更容易操控機(jī)器學(xué)習(xí)算法來獲得自己想要的“結(jié)果”。 攻擊者將如何利用人工智能技術(shù)來滿足己需? “百科”一下你會(huì)發(fā)現(xiàn),對抗性機(jī)器學(xué)習(xí)(以下簡稱AML)是一個(gè)“機(jī)器學(xué)習(xí)與計(jì)算機(jī)安全的交叉學(xué)科,旨在對垃圾信息過濾、惡意軟件監(jiān)測和生物特征識(shí)別等對抗性設(shè)置中安全部署機(jī)器學(xué)習(xí)技術(shù)。AML希望在對抗性環(huán)境中應(yīng)用機(jī)器學(xué)習(xí)算法后,能夠更好地理解這些算法,而所謂對抗性設(shè)置,則指的是任何一個(gè)讓攻擊者因?yàn)樨?cái)務(wù)動(dòng)機(jī)或其他動(dòng)機(jī)而迫使機(jī)器學(xué)習(xí)算法采取不端行為的設(shè)置。 然而,由于機(jī)器學(xué)習(xí)模型的設(shè)計(jì)和訓(xùn)練過程是為了獲得良好的平均表現(xiàn),而未必考慮過最差表現(xiàn),所以存在很大的攻擊面,因此從安全角度看,往往最易受到攻擊。也正因如此,這些系統(tǒng)很容易遭到通用攻擊。一般來說,聰明的攻擊者可以通過操縱例子攻擊訓(xùn)練模型,導(dǎo)致機(jī)器學(xué)習(xí)算法給某些案例添加錯(cuò)誤的標(biāo)簽或?qū)W會(huì)被曲解的模型;也可以通過查找代碼漏洞攻擊實(shí)施過程;或是利用機(jī)器學(xué)習(xí)算法的“黑盒子”特性。下面,我們就不妨與各位來聊一聊,未來攻擊者將會(huì)如何利用AI獲得暴利。 讓釣魚網(wǎng)站躲避安全檢測 釣魚網(wǎng)站憑其超高的偽裝技術(shù),肆意的進(jìn)行網(wǎng)絡(luò)欺詐,一般用戶難以辨認(rèn)。目前我們已知的是,Google的釣魚網(wǎng)頁分類器就是通過機(jī)器學(xué)習(xí)訓(xùn)練得到的,而攻擊者則利用逆向工程技術(shù)獲得分類器的部分信息,其所生成的新釣魚網(wǎng)頁能100%的避開Google釣魚網(wǎng)頁分類器。 攻擊者通過成功破解谷歌釣魚網(wǎng)頁過濾器(以下簡稱GPPF)分類模型,可從中獲取足夠的知識(shí)(像分類算法、得分規(guī)則和特征等)以進(jìn)行有效的躲避攻擊,通過逆向工程可以獲取84.8%的評(píng)分規(guī)則,其中涵蓋了絕大多數(shù)的高權(quán)重規(guī)則。因此,在100個(gè)真正的釣魚網(wǎng)頁進(jìn)行測試后發(fā)現(xiàn),所有釣魚網(wǎng)頁100%都可以輕松的繞過GPPF檢測,從現(xiàn)有研究結(jié)果來看,現(xiàn)有的客戶端分類器很容易受到分類器針對性攻擊。 更高級(jí)別的魚叉式釣魚攻擊 我們說,在反安全領(lǐng)域中最有效的網(wǎng)絡(luò)釣魚攻擊就是魚叉式網(wǎng)絡(luò)釣魚,該種攻擊可侵入所有的防御層,很多數(shù)據(jù)泄露事件都始于魚叉式網(wǎng)絡(luò)攻擊。而AML另一個(gè)更明顯的應(yīng)用是使用智能社會(huì)工程中的文本到語音轉(zhuǎn)換、語音識(shí)別和自然語言處理類似算法,利用時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)教授軟件的電子郵件寫作風(fēng)格,從而增強(qiáng)其真實(shí)性與可信性。因此,理論上講網(wǎng)絡(luò)釣魚郵件或?qū)⒆兊酶訌?fù)雜和更具可信性。 邁克菲實(shí)驗(yàn)室在2017年曾預(yù)測,攻擊者將越來越多地利用機(jī)器學(xué)習(xí)分析大量被盜記錄,以識(shí)別潛在受害者并構(gòu)建能夠更加有效針對這些目標(biāo)人群,內(nèi)容詳盡的釣魚類電子郵件,且在社交平臺(tái)上測試后發(fā)現(xiàn),為用戶量身定做的釣魚帖子,其點(diǎn)擊率是有史以來所報(bào)道過大規(guī)模釣魚攻擊活動(dòng)中最高的。 讓機(jī)器學(xué)習(xí)引擎失效 一個(gè)更簡單形式有效的方式是,讓用于檢測惡意軟件的機(jī)器學(xué)習(xí)引擎失效,就像以往攻擊者對殺毒引擎所做的一樣。眾所周知,機(jī)器學(xué)習(xí)模型要從輸入數(shù)據(jù)中進(jìn)行學(xué)習(xí),一旦數(shù)據(jù)池“中毒”,那么輸出也會(huì)“中毒”。 創(chuàng)建惡意軟件 機(jī)器學(xué)習(xí)可以用來幫助創(chuàng)建惡意軟件嗎?盡管我們的初衷是用機(jī)器學(xué)習(xí)來檢測惡意可執(zhí)行文件,然而,分析安全情報(bào)卻發(fā)現(xiàn),機(jī)器學(xué)習(xí)和深度神經(jīng)網(wǎng)絡(luò)存在被躲避攻擊所迷惑的可能性。如果網(wǎng)絡(luò)安全企業(yè)的AI可以學(xué)習(xí)識(shí)別潛在的惡意軟件,那么黑客AI就能夠通過觀察學(xué)習(xí)防惡意軟件AI做出決策,使用該知識(shí)來開發(fā)“最小程度被檢測出”的惡意軟件。 實(shí)際上,惡意軟件作者在大多數(shù)情況下無法訪問惡意軟件檢測系統(tǒng)所使用機(jī)器學(xué)習(xí)模型的詳細(xì)結(jié)構(gòu)和參數(shù),因此他們只能執(zhí)行黑盒攻擊,通過構(gòu)建生成對抗網(wǎng)絡(luò)算法來生成對抗惡意軟件樣本,從而繞過基于機(jī)器學(xué)習(xí)的黑盒檢測系統(tǒng)。 不可否認(rèn),人工智能技術(shù)的發(fā)展的確為網(wǎng)絡(luò)安全帶來新機(jī)遇,然而挑戰(zhàn)也隨之而。如今,我們正利用AI技術(shù)增強(qiáng)自己的防御能力,但與此同時(shí),黑客也在逐漸利用AI漏洞建立對抗樣本以躲避攻擊。雙方在各自的領(lǐng)域進(jìn)行更多嘗試的同時(shí),也將在人工智能領(lǐng)域開始一場新的博弈,至于誰能獲得最終勝利,仍需時(shí)間來驗(yàn)證。 |
|