昨天,Yann LeCun在Facebook個人主頁上寫到:深度學(xué)習(xí)已死,可微分編程萬歲! 這讓不少人大吃一驚,莫非我們一直堅信的深度學(xué)習(xí)技術(shù)是假的“炒作概念”? 原文譯文: 好,深度學(xué)習(xí)作為一個流行詞,現(xiàn)在時效已過。深度學(xué)習(xí)已死,可微分編程萬歲! 沒錯,“可微分編程”不過是把現(xiàn)代這套深度學(xué)習(xí)技術(shù)重新?lián)Q了個叫法,這就跟“深度學(xué)習(xí)”是現(xiàn)代兩層以上的神經(jīng)網(wǎng)絡(luò)變體的新名字一樣。 但重要的一點是,人們現(xiàn)在正在將各種參數(shù)化函數(shù)模塊的網(wǎng)絡(luò)組裝起來,構(gòu)建一種新的軟件,并且使用某種基于梯度的優(yōu)化來訓(xùn)練這些軟件。 越來越多的人正在以一種依賴于數(shù)據(jù)的方式(循環(huán)和條件)來程序化地定義網(wǎng)絡(luò),讓它們隨著輸入數(shù)據(jù)的動態(tài)變化而變化。這與是普通的程序非常類似,除了前者是參數(shù)化的、可以自動可微分,并且可以訓(xùn)練和優(yōu)化。動態(tài)網(wǎng)絡(luò)變得越來越流行(尤其是對于NLP而言),這要歸功于PyTorch和Chainer等深度學(xué)習(xí)框架(注意:早在1994年,以前的深度學(xué)習(xí)框架Lush,就能處理一種稱為Graph Transformer Networks的特殊動態(tài)網(wǎng)絡(luò),用于文本識別)。 現(xiàn)在人們正在積極從事命令式可微分編程語言編譯器的工作。這是開發(fā)基于學(xué)習(xí)的AI(learning-based AI)一條非常令人興奮的途徑。 原文截圖: 對于LeCun的新想法,不少人都嫌棄這個新名字太長太難叫,甚至有人覺得LeCun越來越像美國現(xiàn)在的總統(tǒng),一段時間不出來搞幾個轟動的“概念”就覺怕別人不關(guān)注總結(jié);不過也有人說“編程”的確比“學(xué)習(xí)”更為準(zhǔn)確。 |
|