選自static. 機器之心編譯
https://static./diagram/WHeBqDIrJRk-kDDY 目錄
正則化算法(Regularization Algorithms) 它是另一種方法(通常是回歸方法)的拓展,這種方法會基于模型復雜性對其進行懲罰,它喜歡相對簡單能夠更好的泛化的模型。 例子:
優(yōu)點:
缺點:
集成算法(Ensemble algorithms) 集成方法是由多個較弱的模型集成模型組,其中的模型可以單獨進行訓練,并且它們的預測能以某種方式結合起來去做出一個總體預測。 該算法主要的問題是要找出哪些較弱的模型可以結合起來,以及結合的方法。這是一個非常強大的技術集,因此廣受歡迎。
優(yōu)點:
缺點:
決策樹算法(Decision Tree Algorithm) 決策樹學習使用一個決策樹作為一個預測模型,它將對一個 item(表征在分支上)觀察所得映射成關于該 item 的目標值的結論(表征在葉子中)。 樹模型中的目標是可變的,可以采一組有限值,被稱為分類樹;在這些樹結構中,葉子表示類標簽,分支表示表征這些類標簽的連接的特征。 例子:
優(yōu)點:
缺點:
回歸(Regression)算法 回歸是用于估計兩種變量之間關系的統(tǒng)計過程。當用于分析因變量和一個 多個自變量之間的關系時,該算法能提供很多建模和分析多個變量的技巧。具體一點說,回歸分析可以幫助我們理解當任意一個自變量變化,另一個自變量不變時,因變量變化的典型值。最常見的是,回歸分析能在給定自變量的條件下估計出因變量的條件期望。 回歸算法是統(tǒng)計學中的主要算法,它已被納入統(tǒng)計機器學習。 例子:
優(yōu)點:
缺點:
人工神經網絡 人工神經網絡是受生物神經網絡啟發(fā)而構建的算法模型。 它是一種模式匹配,常被用于回歸和分類問題,但擁有龐大的子域,由數(shù)百種算法和各類問題的變體組成。 例子:
優(yōu)點:
缺點: 需要大量數(shù)據進行訓練 訓練要求很高的硬件配置 模型處于「黑箱狀態(tài)」,難以理解內部機制 元參數(shù)(Metaparameter)與網絡拓撲選擇困難。 深度學習(Deep Learning) 深度學習是人工神經網絡的最新分支,它受益于當代硬件的快速發(fā)展。 眾多研究者目前的方向主要集中于構建更大、更復雜的神經網絡,目前有許多方法正在聚焦半監(jiān)督學習問題,其中用于訓練的大數(shù)據集只包含很少的標記。 例子:
優(yōu)點/缺點:見神經網絡 支持向量機(Support Vector Machines) 給定一組訓練事例,其中每個事例都屬于兩個類別中的一個,支持向量機(SVM)訓練算法可以在被輸入新的事例后將其分類到兩個類別中的一個,使自身成為非概率二進制線性分類器。 SVM 模型將訓練事例表示為空間中的點,它們被映射到一幅圖中,由一條明確的、盡可能寬的間隔分開以區(qū)分兩個類別。 隨后,新的示例會被映射到同一空間中,并基于它們落在間隔的哪一側來預測它屬于的類別。 優(yōu)點: 在非線性可分問題上表現(xiàn)優(yōu)秀 缺點:
降維算法(Dimensionality Reduction Algorithms) 和集簇方法類似,降維追求并利用數(shù)據的內在結構,目的在于使用較少的信息總結或描述數(shù)據。 這一算法可用于可視化高維數(shù)據或簡化接下來可用于監(jiān)督學習中的數(shù)據。許多這樣的方法可針對分類和回歸的使用進行調整。 例子:
優(yōu)點:
缺點:
聚類算法(Clustering Algorithms) 聚類算法是指對一組目標進行分類,屬于同一組(亦即一個類,cluster)的目標被劃分在一組中,與其他組目標相比,同一組目標更加彼此相似(在某種意義上)。 例子:
優(yōu)點:
缺點:
基于實例的算法(Instance-based Algorithms) 基于實例的算法(有時也稱為基于記憶的學習)是這樣學 習算法,不是明確歸納,而是將新的問題例子與訓練過程中見過的例子進行對比,這些見過的例子就在存儲器中。 之所以叫基于實例的算法是因為它直接從訓練實例中建構出假設。這意味這,假設的復雜度能隨著數(shù)據的增長而變化:最糟的情況是,假設是一個訓練項目列表,分類一個單獨新實例計算復雜度為 O(n) 例子:
優(yōu)點:
缺點:
貝葉斯算法(Bayesian Algorithms) 貝葉斯方法是指明確應用了貝葉斯定理來解決如分類和回歸等問題的方法。 例子:
優(yōu)點: 快速、易于訓練、給出了它們所需的資源能帶來良好的表現(xiàn) 缺點:
關聯(lián)規(guī)則學習算法(Association Rule Learning Algorithms) 關聯(lián)規(guī)則學習方法能夠提取出對數(shù)據中的變量之間的關系的最佳解釋。比如說一家超市的銷售數(shù)據中存在規(guī)則 {洋蔥,土豆}=> {漢堡},那說明當一位客戶同時購買了洋蔥和土豆的時候,他很有可能還會購買漢堡肉。 例子:
圖模型(Graphical Models) 圖模型或概率圖模型(PGM/probabilistic graphical model)是一種概率模型,一個圖(graph)可以通過其表示隨機變量之間的條件依賴結構(conditional dependence structure)。 例子:
優(yōu)點:
缺點:
本文為機器之心編譯,轉載請聯(lián)系本公眾號獲得授權。 ------------------------------------------------ 加入機器之心(全職記者/實習生):hr@jiqizhixin.com 投稿或尋求報道:editor@jiqizhixin.com 廣告&商務合作:bd@jiqizhixin.com |
|