一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

【原創(chuàng)】GBDT(MART)概念簡(jiǎn)介

 諸文館 2014-12-05

GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一種用于回歸的機(jī)器學(xué)習(xí)算法,該算法由多棵決策樹組成,所有樹的結(jié)論累加起來做最終答案。當(dāng)把目標(biāo)函數(shù)做變換后,該算法亦可用于分類或排序。

 

本文主要從高層明確幾個(gè)GBDT概念,主要講GBDT的兩個(gè)版本以及GBDT是什么不是什么。詳細(xì)介紹見文中的鏈接。

 

1. GBDT的兩個(gè)不同版本(重要)

目前GBDT有兩個(gè)不同的描述版本,兩者各有支持者,讀文獻(xiàn)時(shí)要注意區(qū)分。殘差版本把GBDT說成一個(gè)殘差迭代樹,認(rèn)為每一棵回歸樹都在學(xué)習(xí)前N-1棵樹的殘差,之前我寫的GBDT入門教程主要在描述這一版本,ELF開源軟件實(shí)現(xiàn)中用的也是這一版本。Gradient版本把GBDT說成一個(gè)梯度迭代樹,使用梯度下降法求解,認(rèn)為每一棵回歸樹在學(xué)習(xí)前N-1棵樹的梯度下降值,之前leftnoteasy的博客中介紹的為此版本,umass的源碼實(shí)現(xiàn)中用的則是這一版本(準(zhǔn)確的說是LambdaMART中的MART為這一版本,MART實(shí)現(xiàn)則是前一版本)。

 

對(duì)GBDT無基礎(chǔ)的朋友可以先分別看一下前面兩篇博文教程??偟膩碚f兩者相同之處在于,都是迭代回歸樹,都是累加每顆樹結(jié)果作為最終結(jié)果(Multiple Additive Regression Tree),每棵樹都在學(xué)習(xí)前N-1棵樹尚存的不足,從總體流程和輸入輸出上兩者是沒有區(qū)別的;兩者的不同主要在于每步迭代時(shí),是否使用Gradient作為求解方法。前者不用Gradient而是用殘差----殘差是全局最優(yōu)值,Gradient是局部最優(yōu)方向*步長(zhǎng),即前者每一步都在試圖讓結(jié)果變成最好,后者則每步試圖讓結(jié)果更好一點(diǎn)。

 

兩者優(yōu)缺點(diǎn)。看起來前者更科學(xué)一點(diǎn)--有絕對(duì)最優(yōu)方向不學(xué),為什么舍近求遠(yuǎn)去估計(jì)一個(gè)局部最優(yōu)方向呢?原因在于靈活性。前者最大問題是,由于它依賴殘差,cost function一般固定為反映殘差的均方差,因此很難處理純回歸問題之外的問題。而后者求解方法為梯度下降,只要可求導(dǎo)的cost function都可以使用,所以用于排序的LambdaMART就是用的后者。

 

2. GBDT中的Tree是回歸樹,不是分類決策樹。

詳見之前我寫的GBDT入門教程

 

3. GBDT中的Boost是樣本目標(biāo)的迭代,不是re-sampling的迭代,也不是Adaboost。

Adaboost中的boosting指從樣本中按分類對(duì)錯(cuò),分配不同的weight,計(jì)算cost function時(shí)使用這些weight,從而讓“錯(cuò)分的樣本權(quán)重越來越大,直到它們被分對(duì)”。Bootstrap也有類似思想,只不過它可以利用不同的weight作為sample概率對(duì)訓(xùn)練樣本集做re-sample,讓錯(cuò)分的樣本被進(jìn)一步學(xué)習(xí),而分類正確的樣本就不用再學(xué)了。但GBDT中的boost完全不同,跟上述邏輯沒有任何關(guān)系,GBDT中每步boost的樣本集都是不變的,變的是每個(gè)樣本的回歸目標(biāo)值。詳見之前我寫的GBDT入門教程。

 

4. Shrinkage不是Gradient的步長(zhǎng)

Shrinkage只是一種大步變小步的逐步求精方法。這點(diǎn)看起來和Gradient目標(biāo)=Gradient單位方向*步長(zhǎng)挺像。

但其實(shí)很不同:1)shrinkage的處理對(duì)象不一定是Gradient方向,也可以是殘差,可以是任何增量,即目標(biāo)=任何東西*shrinkage步長(zhǎng)。2)shrinkage決定的是最終走出的一步大小,而不是希望走出的一步大小。前者是對(duì)于已有的學(xué)習(xí)結(jié)果打折,后者是在決定學(xué)習(xí)目標(biāo)時(shí)對(duì)局部最優(yōu)方向上走多遠(yuǎn)負(fù)責(zé)。3)shrinkage設(shè)小了只會(huì)讓學(xué)習(xí)更慢,設(shè)大了就等于沒設(shè),它適用于所有增量迭代求解問題;而Gradient的步長(zhǎng)設(shè)小了容易陷入局部最優(yōu)點(diǎn),設(shè)大了容易不收斂。它僅用于用梯度下降求解。--這兩者其實(shí)沒太大關(guān)系。LambdaMART中其實(shí)兩者都用了,而外部可配的參數(shù)是shrinkage而不是Gradient步長(zhǎng)。

 

5. GBDT中的Gradient不一定必須是Gradient

見第1部分的兩個(gè)版本。

 

原創(chuàng)博文,轉(zhuǎn)載請(qǐng)注明出處:http://hi.baidu.com/new/hehehehello

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多

    精品人妻一区二区三区免费看| a久久天堂国产毛片精品| 免费在线观看欧美喷水黄片| 国产在线一区二区三区不卡 | 国产精品欧美一区二区三区| 亚洲欧美日韩另类第一页| 成人亚洲国产精品一区不卡| 欧美成人免费夜夜黄啪啪 | 日韩人妻精品免费一区二区三区 | 成人午夜视频在线播放| 精品少妇一区二区三区四区| 亚洲国产成人久久99精品| 成人午夜视频精品一区| 亚洲欧美日本国产有色| 精品一区二区三区三级视频| 久热在线视频这里只有精品| 在线播放欧美精品一区| 国产偷拍盗摄一区二区| 亚洲第一区二区三区女厕偷拍| 亚洲男人天堂网在线视频| 亚洲少妇一区二区三区懂色| 久久中文字人妻熟女小妇| 国产精品成人一区二区三区夜夜夜| 国产小青蛙全集免费看| 日韩黄片大全免费在线看| 91精品国产综合久久不卡| 国产一区欧美一区日韩一区| 欧美一区二区三区喷汁尤物| 99久久人妻中文字幕| 九九热精彩视频在线播放| 91香蕉视频精品在线看| 中文字幕有码视频熟女| 国产女优视频一区二区| 香蕉尹人视频在线精品| 日韩人妻毛片中文字幕| 欧美日韩免费观看视频| 青青操视频在线观看国产| 亚洲精品成人福利在线| 精品一区二区三区人妻视频| 久久热在线视频免费观看| 日韩欧美黄色一级视频|