一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

給人工智能降點溫:深度學習不是萬能良藥

 漢無為 2017-09-05
策劃|Pablo Cordero
譯者|馬卓奇
近幾年,深度學習已經(jīng)進入一定程度的狂熱狀態(tài),人們正試圖用這個技術解決每一個問題。然而,深度學習真是萬能的嗎?閱讀此文后,你便能夠從深層理解為什么深度學習并不是想象的那般“神話”了。
寫在前面

近日,在深度學習領域出現(xiàn)了一場熱烈的爭論。這一切都要從 Jeff Leek 在 Simply Stats 上發(fā)表了一篇題為《數(shù)據(jù)量不夠大,別玩深度學習》(Don't use deep learning your data isn't that big)的博文開始。作者 Jeff Leek 在這篇博文中指出,當樣本數(shù)據(jù)集很小時(這種情況在生物信息領域很常見),即使有一些層和隱藏單元,具有較少參數(shù)的線性模型的表現(xiàn)是優(yōu)于深度網(wǎng)絡的。為了證明自己的論點,Leek 舉了一個基于 MNIST 數(shù)據(jù)庫進行圖像識別的例子,分辨 0 或者 1。他還表示,當在一個使用僅僅 80 個樣本的 MNIST 數(shù)據(jù)集中進行 0 和 1 的分類時,一個簡單的線性預測器(邏輯回歸)要比深度神經(jīng)網(wǎng)絡的預測準確度更高。

這篇博文的發(fā)表引起了領域內的爭論,哈佛大學藥學院的生物醫(yī)藥信息學專業(yè)博士后 Andrew Beam 寫了篇文章來反駁:《就算數(shù)據(jù)不夠大,也能玩深度學習》(You can probably use deep learning even if your data isn't that big)。Andrew Beam 指出,即使數(shù)據(jù)集很小,一個適當訓練的深度網(wǎng)絡也能擊敗簡單的線性模型。

如今,越來越多的生物信息學研究人員正在使用深度學習來解決各種各樣的問題,這樣的爭論愈演愈烈。這種炒作是真的嗎?還是說線性模型就足夠滿足我們的所有需求呢?結論一如既往——要視情況而定。在這篇文章中,作者探索了一些機器學習的使用實例,在這些實例中使用深度學習并不明智。并且解釋了一些對深度學習的誤解,作者認為正是這些錯誤的認識導致深度學習沒有得到有效地使用,這種情況對于新手來說尤其容易出現(xiàn)。

打破深度學習偏見

首先,我們來看看許多外行者容易產生的偏見,其實是一些半真半假的片面認識。主要有兩點,其中的一點更具技術性,我將詳細解釋。

深度學習在小樣本集上也可以取得很好的效果

深度學習是在大數(shù)據(jù)的背景下火起來的(第一個谷歌大腦項目向深度神經(jīng)網(wǎng)絡提供了大量的 Youtube 視頻),自從那以后,絕大部分的深度學習內容都是基于大數(shù)據(jù)量中的復雜算法。

然而,這種大數(shù)據(jù) + 深度學習的配對不知為何被人誤解為:深度學習不能應用于小樣本。如果只有幾個樣例,將其輸入具有高參數(shù)樣本比例的神經(jīng)網(wǎng)絡似乎一定會走上過擬合的道路。然而,僅僅考慮給定問題的樣本容量和維度,無論有監(jiān)督還是無監(jiān)督,幾乎都是在真空中對數(shù)據(jù)進行建模,沒有任何的上下文。

可能的數(shù)據(jù)情況是:你擁有與問題相關的數(shù)據(jù)源,或者該領域的專家可以提供的強大的先驗知識,或者數(shù)據(jù)可以以非常特殊的方式進行構建(例如,以圖形或圖像編碼的形式)。所有的這些情況中,深度學習有機會成為一種可供選擇的方法——例如,你可以編碼較大的相關數(shù)據(jù)集的有效表示,并將該表示應用到你的問題中。

這種典型的示例常見于自然語言處理,你可以學習大型語料庫中的詞語嵌入,例如維基百科,然后將他們作為一個較小的、較窄的語料庫嵌入到一個有監(jiān)督任務中。極端情況下,你可以用一套神經(jīng)網(wǎng)絡進行聯(lián)合學習特征表示,這是在小樣本集中重用該表示的一種有效方式。這種方法被稱作“一次性學習”(one-shot learning),并且已經(jīng)成功應用到包括計算機視覺和藥物研發(fā)在內的具有高維數(shù)據(jù)的領域。

藥物研發(fā)中的一次性學習網(wǎng)絡,摘自 Altae-Tran et al. ACS Cent. Sci. 2017

深度學習不是一切的答案

我聽過最多的第二個偏見就是過度宣傳。許多尚未入門該領域的人,僅僅因為深度神經(jīng)網(wǎng)絡在其它領域的出色表現(xiàn),就期待它也能為他們帶來神話般的表現(xiàn)提升。其他人則從深度學習在圖像、音樂和語言(與人類關系密切的三種數(shù)據(jù)類型)處理領域的令人印象深刻的表現(xiàn)中受到啟發(fā),于是就頭腦發(fā)熱地鉆入該領域,迫不及待地嘗試訓練最新的 GAN 結構。

當然,這種大肆吹捧在很多方面是真實存在的。深度學習在機器學習中的地位不可小覷,也是數(shù)據(jù)建模方法庫的重要工具。它的普及帶動了諸如 tensorflow 和 pytorch 等許多重要框架的發(fā)展,它們即使是在深度學習之外也是十分有用的。失敗者崛起成為超級巨星的故事激勵了許多研究員重新審視以前的模糊算法,如進化算法和增強學習。

但任何情況下也不能認為深度學習是萬能良藥。除了“天下沒有免費的午餐”這點之外,深度學習模型是非常微妙的,并且需要仔細甚至非常耗時耗力的超參數(shù)搜索、調整,以及測試(文章后續(xù)有更多講解)。除此之外,在很多情況下,從實踐的角度來看,使用深度學習是沒有意義的,更簡單的模型反而能獲得更好的效果。

深度學習不僅僅是.fit()

深度學習模型從機器學習的其他領域傳來時,我認為還有另外一個方面經(jīng)常被忽略。大多數(shù)深度學習的教程和介紹材料都將模型描述為通過層次方式進行連接的節(jié)點層組成,其中第一層是輸入,最后一層是輸出,并且你可以用某種形式的隨機梯度下降(SGD)方法來訓練網(wǎng)絡。有些材料會簡單介紹隨機梯度下降是如何工作的,以及什么是反向傳播,但大部分介紹主要關注的是豐富的神經(jīng)網(wǎng)絡類型(卷積神經(jīng)網(wǎng)絡,循環(huán)神經(jīng)網(wǎng)絡等等)。

而優(yōu)化方法本身卻很少受到關注,這是很不幸的,因為深度學習為什么能夠起到很大的作用,絕大部分原因就是這些特殊的優(yōu)化方法(具體論述可以參考 Ferenc Huszár 的博客以及博客中引用的論文)。了解如何優(yōu)化參數(shù),以及如何劃分數(shù)據(jù),從而更有效地使用它們以便在合理時間內使網(wǎng)絡獲得良好的收斂,是至關重要的。

不過,為什么隨機梯度下降如此關鍵還是未知的,但是現(xiàn)在線索也正零星出現(xiàn)。我傾向于將該方法看成是貝葉斯推理的一部分。實質上,在你進行某種形式的數(shù)值優(yōu)化時,你都會用特定的假設和先驗來執(zhí)行一些貝葉斯推理。其實有一個被稱做概率數(shù)值計算(probabilistic numerics)的完整研究領域,就是從這個觀點開始的。隨機梯度下降也是如此,最新的研究成果表明,該過程實際上是一個馬爾科夫鏈,在特定假設下,可以看作是后向變分近似的穩(wěn)態(tài)分布。

所以當你停止隨機梯度下降,并采用最終的參數(shù)時,基本上是從這個近似分布中抽樣得到的。我認為這個想法很有啟發(fā)性,因為這樣一來,優(yōu)化器的參數(shù)(這里是指學習率)就更有意義了。例如,當你增加隨機梯度下降的學習參數(shù)時,馬爾可夫鏈就會變得不穩(wěn)定,直到它找到大面積采樣的局部最小值,這樣一來,就增加了程序的方差。

另一方面,如果減少學習參數(shù),馬爾科夫鏈可以慢慢的近似到狹義極小值,直到它收斂,這樣就增加了某個特定區(qū)域的偏置。而另一個參數(shù),隨機梯度下降的批次大小,也可以控制算法收斂的區(qū)域是什么類型,小的批次收斂到較大區(qū)域,大的批次收斂到較小區(qū)域。


隨機梯度下降根據(jù)學習速率或批尺寸來選擇較大或狹義最小值

這樣的復雜性意味著深度網(wǎng)絡的優(yōu)化器非常重要:它們是模型的核心部分,與層架構一樣重要。這一點在機器學習的許多其他模型中并不常見。線性模型(甚至是正則化的,像 LASSO 算法)以及支持向量機(SVM) 都是凸優(yōu)化問題,沒有太多細微差別,并且只有一個最優(yōu)解。這也就是為什么來自其它領域的研究人員在使用諸如 scikit-learn 這樣的工具時會感到困惑,因為他們發(fā)現(xiàn)找不到簡單地提供.fit() 函數(shù)的 API(盡管現(xiàn)在有些工具,例如 skflow,試圖將簡單的網(wǎng)絡置入.fit() 中,我認為這有點誤導,因為深度學習的全部重點就是其靈活性)。

什么時候不需要深度學習?

在什么情況下深度學習不是最理想的呢?在我看來,以下情況中,深度學習更多是一種阻礙,而不是福音。

低預算或低投資問題

深度網(wǎng)絡是十分靈活的模型,有多種多樣的結構和節(jié)點模型、優(yōu)化器以及正則化方法。根據(jù)應用場景,你的模型或許要有卷積層(層尺寸多寬?有沒有池化操作?),或者循環(huán)結構(有沒有門控單元?);網(wǎng)絡可能真的很深(hourglass,siamese,或其他結構?)還是只是具有很少的幾個隱藏層(有多少單元?);它可能使用整流線性單元或其他激活函數(shù);它可能會或可能不會有隨機丟棄(在哪一層中?用什么比例?),并且權重應該是正則化的(L1、L2,或者是某些更奇怪的正則化方法?)。這只是一部分列表,還有很多其他類型的節(jié)點、連接,甚至損失函數(shù)可以去嘗試。

即便只是訓練大型網(wǎng)絡的一個實例,調整許多超參數(shù)以及探索框架的過程也是非常耗時的。谷歌最近宣稱自己的 AutoML 方法可以自動找到最好的架構,令人印象深刻,但仍然需要超過 800 個 GPU 全天候運行數(shù)周,這對于任何人來說幾乎都是遙不可及的。關鍵在于訓練深度網(wǎng)絡時,在計算和調試部分都會花費巨大的代價。這種消耗對于許多日常預測問題并沒有意義,并且調整深度網(wǎng)絡的投資回報率太低,即使是調整小型網(wǎng)絡。即使有足夠的預算和投資,也沒有理由不嘗試替代方法,哪怕作為基準測試。你可能會驚喜地發(fā)現(xiàn),線性 SVM 就夠用了。

解釋和傳達模型參數(shù)或特征對一般受眾的重要性

深度網(wǎng)絡也是很有名的黑匣子,它具有高預測能力但可解釋性不足。盡管最近有很多工具,諸如顯著圖(saliency maps)和激活差異(activation difference),它們對某些領域而言是非常有用的,但它們不會完全被應用到所有的應用中。主要是,當你想要確保網(wǎng)絡不會通過記住數(shù)據(jù)集或專注于特定的虛假特征來欺騙你時,這些工具就能很好地工作,但仍然難以從每個特征的重要性解讀出深度網(wǎng)絡的整體決策。在這個領域,沒有什么能夠真正地打敗線性模型,因為學習得到的系數(shù)與響應有著直接的關系。當將這些解釋傳達給一般受眾,并且他們需要基于此做出決策時,這就顯得尤為重要。

例如,醫(yī)生需要結合各種不同的數(shù)據(jù)來確認診斷結果。變量和結果之間的關系越簡單、越直接,醫(yī)生就能更好地利用,而不是低估或高估實際值。此外,有些情況下,模型(尤其是深度網(wǎng)絡)的精度并不像可解釋性那樣重要。例如,政策制定者可能想知道一些人口統(tǒng)計變量對于死亡率的影響,并且相較于預測的準確性來說,可能對這種關系的直接近似更有興趣。在這兩種情況下,與更簡單、更易滲透的方法相比,深度學習處于不利地位。

建立因果機制

模型可解釋性的極端情況是當我們試圖建立一個機械模型,即實際捕捉數(shù)據(jù)背后現(xiàn)象的模型。一個好的例子包括試圖猜測兩個分子(例如藥物、蛋白質、核酸等)是否在特定的細胞環(huán)境中相互產生影響,或者假設特定的營銷策略是否對銷售產生實際的影響。在這個領域,根據(jù)專家意見,沒有什么可以擊敗老式的貝葉斯方法,它們是我們表示并推斷因果關系的最好方式。Vicarious 有一些很好的最新研究成果,說明為什么這個更有原則性的方法在視頻游戲任務中比深度學習表現(xiàn)得更好。

學習“非結構化”特征

這可能是具有爭議性的。我發(fā)現(xiàn)深度學習擅長的一個領域是為特定任務找到有用的數(shù)據(jù)表示。一個很好的例子就是上述的詞語嵌入。自然語言具有豐富而復雜的結構,與“上下文感知”(context-aware)網(wǎng)絡相近似:每個單詞都可以通過向量來表示,而這個向量可以編碼其經(jīng)常出現(xiàn)的文本。在 NLP 任務中使用在大型語料庫中學習的單詞嵌入,有時可以在另一個語料庫的特定任務中提升效果。然而,如果所討論的語料庫是完全非結構化的,它可能不會起到任何作用。

例如,假設你正在通過查看關鍵字的非結構化列表來對對象進行分類,由于關鍵字不是在任何特定結構中都會使用的(比如在一個句子中),所以單詞嵌入不會對這些情況有太大幫助。在這種情況下,數(shù)據(jù)是一個真正的“詞袋”(bag of words),這種表示很有可能足以滿足任務所需。與此相反的是,如果你使用預訓練的話,單詞嵌入并不是那么耗費時力,而且可以更好地捕獲關鍵字的相似度。不過,我還是寧愿從“詞袋”表示開始,看看能否得到很好的預測結果。畢竟,這個“詞袋”的每個維度都比對應的詞嵌入槽更容易解讀。

深度學習是未來

深度學習目前非常火爆,資金充足,并且發(fā)展異常迅速。當你還在閱讀會議上發(fā)表的論文時,有可能已經(jīng)有兩、三種新版本可以超越它了。這給我上述列出的幾點提出了很大的挑戰(zhàn):深度學習在不久的將來可能在這些情景中是非常有用的。用于解釋圖像和離散序列的深度學習模型的工具越來越好。最近推出的軟件,如 Edward 將貝葉斯建模和深度網(wǎng)絡框架結合,能夠量化神經(jīng)網(wǎng)絡參數(shù)的不確定性,以及通過概率編程和自動變分推理進行簡易貝葉斯推理。從長遠來看,可能會有一個簡化的建模庫,能夠給出深度網(wǎng)絡具有的顯著屬性,從而減少需要嘗試的參數(shù)空間。所以要不斷更新你的 arXiv 閱讀內容,這篇博文的內容或許一兩個月內也會過時。


Edward 通過將概率規(guī)劃與 tensorflow 結合,將深度學習和貝葉斯的模型考慮在內。摘自 Tran et al. ICLR 2017

本文翻譯已獲授權,原文鏈接:

http:///blog/when-not-to-use-deep-learning/

今日薦文

點擊下方圖片即可閱讀

Web 加速,協(xié)議先行!



    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    欧美精品久久男人的天堂| 午夜精品福利视频观看| 有坂深雪中文字幕亚洲中文| 亚洲欧洲一区二区中文字幕| 白白操白白在线免费观看| 九九热这里只有精品哦| 欧美一本在线免费观看| 国产不卡最新在线视频| 99久久成人精品国产免费| 国产中文另类天堂二区| 人妻中文一区二区三区| 亚洲三级视频在线观看免费| 亚洲熟妇熟女久久精品 | 一级欧美一级欧美在线播| 欧美日韩久久精品一区二区| 在线观看国产成人av天堂野外| 国产精品欧美一区二区三区不卡| 蜜桃av人妻精品一区二区三区| 国产精品视频久久一区| 丝袜视频日本成人午夜视频 | 日本午夜一本久久久综合| 开心激情网 激情五月天| 伊人网免费在线观看高清版| 国产精品视频一区二区秋霞| 深夜少妇一区二区三区| 国产综合香蕉五月婷在线| 少妇人妻一级片一区二区三区| 好骚国产99在线中文| 好吊日在线视频免费观看| 日韩色婷婷综合在线观看| 亚洲一区二区欧美激情| 开心激情网 激情五月天| 日本淫片一区二区三区| 在线日韩欧美国产自拍| 青青免费操手机在线视频| 国产精品丝袜美腿一区二区| 日本人妻精品中文字幕不卡乱码| 亚洲欧美日韩精品永久| 日韩中文高清在线专区| 国产人妻精品区一区二区三区 | 亚洲欧洲一区二区综合精品|