一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

機器學習和深度學習引用量最高的20篇論文:2014

 LZS2851 2017-04-09

選自Kdnuggets

作者:Thuy T. Pham

機器之心編譯

參與:邵明、黃小天

機器學習和深度學習的研究進展正深刻變革著人類的技術(shù),本文列出了自 2014 年以來這兩個領(lǐng)域發(fā)表的最重要(被引用次數(shù)最多)的 20 篇科學論文,以饗讀者。

機器學習和深度學習引用量最高的20篇論文:2014-2017

機器學習,尤其是其子領(lǐng)域深度學習,在近些年來取得了許多驚人的進展。重要的研究論文可能帶來使全球數(shù)十億人受益的技術(shù)突破。這一領(lǐng)域的研究目前發(fā)展非???,為了幫助你了解進展狀況,我們列出了自 2014 年以來最重要的 20 篇科學論文。

我們篩選論文的標準是來自三大學術(shù)搜索引擎谷歌學術(shù)(scholar.google.com)、微軟學術(shù)(academic.microsoft.com)和 semanticscholar.org 的引用量。由于不同搜索引擎的引用量數(shù)據(jù)各不相同,所以我們在這里僅列出了微軟學術(shù)的數(shù)據(jù),其數(shù)據(jù)比其它兩家稍低一點。

我們還給出了每篇論文的發(fā)表時間、高度有影響力的引用數(shù)量(HIC)和引用速度(CV),以上數(shù)據(jù)由 semanticscholar.org 提供。HIC 表示了以此為基礎(chǔ)的論文情況和與其它論文的關(guān)系,代表了有意義的引用。CV 是最近 3 年每年引用數(shù)量的加權(quán)平均。有些引用的 CV 是 0,那是因為 semanticscholar.org 上沒有給出數(shù)據(jù)。這 20 篇論文中大多數(shù)(包括前 8 篇)都是關(guān)于深度學習的,但同時也很多樣性,僅有一位作者(Yoshua Bengio)有 2 篇論文,而且這些論文發(fā)表在很多不同的地方:CoRR (3)、ECCV (3)、IEEE CVPR (3)、NIPS (2)、ACM Comp Surveys、ICML、IEEE PAMI、IEEE TKDE、Information Fusion、Int. J. on Computers & EE、JMLR、KDD 和 Neural Networks。前 2 篇論文的引用量目前遠遠高于其它論文。注意第 2 篇論文去年才發(fā)表!要了解機器學習和深度學習的最新進展,這些論文一定不能錯過。

1. 論文:Dropout:一種防止神經(jīng)網(wǎng)絡(luò)過擬合的簡單方法(Dropout: a simple way to prevent neural networks from overfitting)

  • 鏈接:http:///3o6l4B

  • 作者:Hinton, G.E., Krizhevsky, A., Srivastava, N., Sutskever, I., & Salakhutdinov, R. (2014). Journal of Machine Learning Research, 15, 1929-1958.

  • 數(shù)據(jù):引用:2084、HIC:142、CV:536

  • 摘要:其關(guān)鍵思想是在神經(jīng)網(wǎng)絡(luò)的訓練過程中隨機丟棄單元(連同它們的連接點)。這能防止單元適應過度,顯著減少過擬合,并相對于其它正則化方法有重大改進。

2. 論文:用于圖像識別的深度殘差學習(Deep Residual Learning for Image Recognition)

  • 鏈接:http:///1JrYXX

  • 作者:He, K., Ren, S., Sun, J., & Zhang, X. (2016). CoRR

  • 數(shù)據(jù):引用:1436、HIC:137、CV:582

  • 摘要:目前的深度學習網(wǎng)絡(luò)層數(shù)越來越多,越來越難以訓練,因此我們提出了一種減緩訓練壓力的殘差學習框架。我們明確地將這些層重新定義為與輸入層有關(guān)的學習殘差函數(shù),而不是學習未被引用的函數(shù)。與此同時,我們提供了全面的經(jīng)驗證據(jù)以表明殘差網(wǎng)絡(luò)更容易優(yōu)化,并可通過增加其層數(shù)來提升精確度。

3. 論文:批標準化:通過減少內(nèi)部協(xié)移加速深度神經(jīng)網(wǎng)絡(luò)訓練(Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift)

  • 鏈接:http:///3sJtk1

  • 作者:Sergey Ioffe, Christian Szegedy (2015) ICML.

  • 數(shù)據(jù):引用:946、HIC:56、CV:0

  • 摘要:訓練深度神經(jīng)網(wǎng)絡(luò)的過程很復雜,原因在于每層的輸入分布隨著訓練過程中引起的前面層的參數(shù)變化而變化。我們把這種現(xiàn)象稱為內(nèi)部協(xié)變量轉(zhuǎn)移(internal covariate shift),并可利用歸一化層輸入來解決此問題。通過將此方法應用到最先進的圖像分類模型,批標準化在訓練次數(shù)減少了 14 倍的條件下達到了與原始模型相同的精度,這表明批標準化具有明顯的優(yōu)勢。

4. 論文:利用卷積神經(jīng)網(wǎng)絡(luò)進行大規(guī)模視頻分類(Large-Scale Video Classification with Convolutional Neural Networks)

  • 鏈接:http:///25lfXF

  • 作者:Fei-Fei, L., Karpathy, A., Leung, T., Shetty, S., Sukthankar, R., & Toderici, G. (2014). IEEE Conference on Computer Vision and Pattern Recognition

  • 數(shù)據(jù):引用:865、HIC:24、CV:239

  • 摘要:針對圖像識別問題,卷積神經(jīng)網(wǎng)絡(luò)(CNN)被認為是一類強大的模型。受到這些結(jié)果的激勵,我們使用了一個包含 487 個類別、100 萬 YouTube 視頻的大型數(shù)據(jù)集,對利用 CNN 進行大規(guī)模視頻分類作了一次廣泛的實證評估。

5. 論文:Microsoft COCO:語境中的通用對象(Microsoft COCO: Common Objects in Context)

  • 鏈接:http:///DAXwA

  • 作者:Belongie, S.J., Dollár, P., Hays, J., Lin, T., Maire, M., Perona, P., Ramanan, D., & Zitnick, C.L. (2014). ECCV.

  • 數(shù)據(jù):引用:830、HIC:78、CV:279

  • 摘要:我們展示了一個新的數(shù)據(jù)集,通過將對象識別問題放入更廣泛的場景理解問題的語境中,以推進當前對象識別領(lǐng)域中最先進的技術(shù)。我們的數(shù)據(jù)集包含了 91 種對象類型的照片,這些圖片對于一個 4 歲大的孩子而言,很容易識別。最后,我們利用可變形部件模型(DPM)為邊界框和分割檢測結(jié)果提供了一個基線性能分析。

6. 論文:使用場景數(shù)據(jù)庫學習場景識別中的深層特征(Learning deep features for scene recognition using places database)

  • 鏈接:http:///2EOBTa

  • 作者:Lapedriza, à., Oliva, A., Torralba, A., Xiao, J., & Zhou, B. (2014). NIPS.

  • 數(shù)據(jù):引用:644、HIC:65、CV:0

  • 摘要:我們引入了一個以場景為中心的新數(shù)據(jù)庫,這個數(shù)據(jù)庫稱為「Places」,里面包含了超過 700 萬個標注好了的場景。我們提議使用新方法去比較圖像數(shù)據(jù)集的密度和多樣性,以表明 Places 與其它場景數(shù)據(jù)庫一樣密集并更具多樣性。

7. 論文:生成對抗網(wǎng)絡(luò)(Generative adversarial nets)

  • 鏈接:http:///3YS5F6

  • 作者:Bengio, Y., Courville, A.C., Goodfellow, I.J., Mirza, M., Ozair, S., Pouget-Abadie, J., Warde-Farley, D., & Xu, B. (2014) NIPS.

  • 數(shù)據(jù):引用:463、HIC:55、CV:0

  • 摘要:通過對抗過程,我們提出了一個評估生成模型的新框架。在此框架中,我們同時訓練兩個模型:生成模型 G 捕獲數(shù)據(jù)分布;判別模型 D 評估樣本示來自訓練數(shù)據(jù)集(而不是來自 G 中)的概率。

8. 論文:通過內(nèi)核相關(guān)濾波器實現(xiàn)高速跟蹤(High-Speed Tracking with Kernelized Correlation Filters)

  • 鏈接:http:///2BBOea

  • 作者:Batista, J., Caseiro, R., Henriques, J.F., & Martins, P. (2015). CoRR

  • 數(shù)據(jù):引用:439、HIC:43、CV:0

  • 摘要:大多數(shù)的現(xiàn)代追蹤器,為應對自然圖像中的變化,典型的方法是采用翻譯和縮放樣本補丁訓練分類器。我們針對包含成千上萬個翻譯補丁數(shù)據(jù)集提出了一個分析模型。結(jié)果表明結(jié)果數(shù)據(jù)矩陣是循環(huán)的,我們可以利用離散傅立葉變換對角化已有的循環(huán)矩陣,將存儲和計算量降低了幾個數(shù)量級。

9. 論文:多標簽學習算法綜述(A Review on Multi-Label Learning Algorithms)

  • 鏈接:http:///3LgpGf

  • 作者:Zhang, M., & Zhou, Z. (2014). IEEE TKDE

  • 數(shù)據(jù):引用:436、HIC:7、CV:91

  • 摘要:本論文的主要目的是對多標簽學習問題進行及時回顧。在多標簽學習問題中,一個實例代表一個樣本,同時,一個樣本與一組標簽相關(guān)聯(lián)。

10. 論文:深層神經(jīng)網(wǎng)絡(luò)特征的可傳遞性(How transferable are features in deep neural networks)

  • 鏈接:http:///aDLgu

  • 作者:Bengio, Y., Clune, J., Lipson, H., & Yosinski, J. (2014) CoRR

  • 數(shù)據(jù):引用:402、HIC:14、CV:0

  • 摘要:我們用實驗量化了深層卷積神經(jīng)網(wǎng)絡(luò)中每層神經(jīng)元的一般性與特異性,并報告了一些令人驚訝的結(jié)果??蓚鬟f性受到兩個不同問題的不利影響:(1)以犧牲目標任務的性能為代價,實現(xiàn)更高層神經(jīng)元對原始人物的專業(yè)化,這是預料之中的;(2)與分裂共同適應神經(jīng)元(co-adapted neuron)之間的網(wǎng)絡(luò)有關(guān)的優(yōu)化困難,這是預料之外的。

11. 論文:我們需要數(shù)百種分類器來解決真實世界的分類問題嗎?(Do we need hundreds of classifiers to solve real world classification problems)

  • 鏈接:http:///2w14RK

  • 作者:Amorim, D.G., Barro, S., Cernadas, E., & Delgado, M.F. (2014). Journal of Machine Learning Research

  • 數(shù)據(jù):引用:387、HIC:3、CV:0

  • 摘要:我們評估了來自 17 個「家族」(判別分析、貝葉斯、神經(jīng)網(wǎng)絡(luò)、支持向量機、決策樹、基于規(guī)則的分類器、提升、裝袋、堆疊、隨機森林、集成方法、廣義線性模型、最近鄰、部分最小二乘和主成分回歸、邏輯和多項回歸、多元自適應回歸樣條法等)的 179 個分類器。我們使用了來自 UCI 數(shù)據(jù)庫中的 121 個數(shù)據(jù)集來研究分類器行為,這些行為不依賴于所選取的數(shù)據(jù)集。最終勝出的是使用 R 語言實現(xiàn)的隨機森林方法和 C 中使用 LibSVM 實現(xiàn)的帶有高斯內(nèi)核的 SVM。

12. 論文:知識庫:一種概率知識融合的網(wǎng)絡(luò)規(guī)模方法(Knowledge vault: a web-scale approach to probabilistic knowledge fusion)

  • 鏈接:http:///3qCSs6

  • 作者:Dong, X., Gabrilovich, E., Heitz, G., Horn, W., Lao, N., Murphy, K., ... & Zhang, W.(2014, August). In Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining ACM

  • 數(shù)據(jù):引用:334、HIC:7、CV:107

  • 摘要:我們引入了一個網(wǎng)絡(luò)規(guī)模的概率知識庫,它將網(wǎng)頁內(nèi)容提?。ㄍㄟ^文本分析、表格數(shù)據(jù)、頁面結(jié)構(gòu)和人工注釋獲得)與來自現(xiàn)存知識庫中的先驗知識相結(jié)合,以構(gòu)建新知識庫。我們部署監(jiān)督學習方法去融合不同的信息源。該知識庫比先前發(fā)布的任何結(jié)構(gòu)化知識庫大得多,并且具有概率推理系統(tǒng),該概率推理系統(tǒng)能計算事實準確性的校準概率。

13. 論文:用于高維數(shù)據(jù)的可擴展最近鄰算法(Scalable Nearest Neighbor Algorithms for High Dimensional Data)

  • 鏈接:http:///hjTa4

  • 作者:Lowe, D.G., & Muja, M. (2014). IEEE Trans. Pattern Anal. Mach. Intell.

  • 數(shù)據(jù):引用:324、HIC:11、CV:69

  • 摘要:我們提出了用于近似最近鄰匹配的新算法,并將其與以前的算法進行比較。為了將其擴展到大型數(shù)據(jù)集(不適合單機的存儲處理)上,我們提出了一種分布式最近鄰匹配框架,該框架可以與論文中描述的任何算法一起使用。

14. 論文:回顧超限學習機的發(fā)展趨勢(Trends in extreme learning machines: a review)

  • 鏈接:http:///3WSEQi

  • 作者:Huang, G., Huang, G., Song, S., & You, K. (2015). Neural Networks

  • 數(shù)據(jù):引用:323、HIC:0、CV:0

  • 摘要:我們的目標是報告超限學習機(ELM)的理論研究和實踐進展所處的現(xiàn)狀。除了分類和回歸,ELM 最近已經(jīng)被擴展到集群、特征選擇、代表性學習和許多其他學習任務。由于其驚人的高效性、簡單性和令人印象深刻的泛化能力,ELM 已經(jīng)被廣泛用于各種領(lǐng)域,如生物醫(yī)學工程、計算機視覺、系統(tǒng)識別、控制和機器人。

15. 論文:一份關(guān)于概念漂移適應的調(diào)查(A survey on concept drift adaptation)

  • 鏈接:http:///3bQkiz

  • 作者:Bifet, A., Bouchachia, A., Gama, J., Pechenizkiy, M., & Zliobaite, I. ACM Comput. Surv., 2014

  • 數(shù)據(jù):引用:314、HIC:4、CV:23

  • 摘要:該文全面介紹了概念漂移適應。它指的是當輸入數(shù)據(jù)與目標變量之間的關(guān)系隨時間變化之時的在線監(jiān)督學習場景。

16. 論文:深度卷積激活特征的多尺度無序池化(Multi-scale Orderless Pooling of Deep Convolutional Activation Features)

  • 鏈接:http:///3gNw8e

  • 作者:Gong, Y., Guo, R., Lazebnik, S., & Wang, L. (2014). ECCV

  • 數(shù)據(jù):引用:293、HIC:23、CV:95

  • 摘要:為了在不降低其辨別力的同時改善卷積神經(jīng)網(wǎng)絡(luò)激活特征的不變性,本文提出了一種簡單但有效的方案:多尺度無序池化(MOP-CNN)。

17. 論文:同時檢測和分割(Simultaneous Detection and Segmentation)

  • 鏈接:http:///4b0ye0

  • 作者:Arbeláez, P.A., Girshick, R.B., Hariharan, B., & Malik, J. (2014) ECCV

  • 數(shù)據(jù):引用:286、HIC:23、CV:94

  • 摘要:本文的目標是檢測圖像中一個類別的所有實例,并為每個實例標記屬于它的像素。我們稱將此任務稱為同時檢測和分割(SDS)。

18. 論文:一份關(guān)于特征選擇方法的調(diào)查(A survey on feature selection methods)

  • 鏈接:http:///4BDdKA

  • 作者:Chandrashekar, G., & Sahin, F. Int. J. on Computers & Electrical Engineering

  • 數(shù)據(jù):引用:279、HIC:1、CV:58

  • 摘要:在文獻中,有許多特征選擇方法可用,由于某些數(shù)據(jù)集具有數(shù)百個可用的特征,這會導致數(shù)據(jù)具有非常高的維度。

19. 論文:用回歸樹集成方法在一毫秒內(nèi)實現(xiàn)人臉校準(One Millisecond Face Alignment with an Ensemble of Regression Trees)

  • 鏈接:http:///1iFyub

  • 作者:Kazemi, Vahid, and Josephine Sullivan, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2014

  • 數(shù)據(jù):引用:277、HIC:15、CV:0

  • 摘要:本文解決了單個圖像的人臉校準問題。我們展示了怎樣使用回歸樹集成來直接從像素強度的稀疏子集估計面部的地標位置,并通過高質(zhì)量的預測實現(xiàn)了超實時性能。

20. 論文:關(guān)于作為混合系統(tǒng)的多分類器系統(tǒng)的調(diào)查(A survey of multiple classifier systems as hybrid systems)

  • 鏈接:http:///3c9EFD

  • 作者:Corchado, E., Gra?a, M., & Wozniak, M. (2014). Information Fusion, 16, 3-17.

  • 數(shù)據(jù):引用:269、HIC:1、CV:22

  • 摘要:模式分類領(lǐng)域目前關(guān)注的焦點是幾種分類器系統(tǒng)的組合,構(gòu)建這些分類器系統(tǒng)可以使用相同或者不同的模型和/或數(shù)據(jù)集構(gòu)建。

機器學習和深度學習引用量最高的20篇論文:2014-2017

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    超薄肉色丝袜脚一区二区| 高清在线精品一区二区| 亚洲天堂精品在线视频| 美日韩一区二区精品系列| 日韩精品一级片免费看| 亚洲天堂有码中文字幕视频| 国产精品熟女乱色一区二区| 国内精品一区二区欧美| 亚洲国产四季欧美一区| 欧美日韩亚洲精品内裤| 亚洲欧美国产网爆精品| 国产一二三区不卡视频| 日本午夜乱色视频在线观看| 亚洲免费观看一区二区三区| 精品人妻精品一区二区三区| 男女午夜福利院在线观看| 亚洲中文字幕在线乱码av| 精品少妇一区二区视频| 免费在线播放一区二区| 欧美韩国日本精品在线| 在线中文字幕亚洲欧美一区| 五月婷婷六月丁香亚洲| 成人三级视频在线观看不卡| 欧美在线观看视频三区| 中文字字幕在线中文乱码二区| 欧美日韩视频中文字幕| 太香蕉久久国产精品视频| 中国少妇精品偷拍视频| 国产小青蛙全集免费看| 国产肥妇一区二区熟女精品| 人妻人妻人人妻人人澡| 丰满人妻一二三区av| 精品视频一区二区不卡| 国产成人精品在线播放| 久久精品视频就在久久| 午夜视频免费观看成人| 欧美日韩亚洲综合国产人| 欧美日韩国产黑人一区| 1024你懂的在线视频| 成人免费观看视频免费| 千仞雪下面好爽好紧好湿全文|