一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

機器學(xué)習(xí)與深度學(xué)習(xí)中的數(shù)學(xué)知識點匯總

 西北望msm66g9f 2019-09-30

本文轉(zhuǎn)載自:SIGAI

本文列出的數(shù)學(xué)知識點已經(jīng)寫成了《機器學(xué)習(xí)的數(shù)學(xué)教程》,以后有機會的話可能會出版,以幫助大家學(xué)習(xí)。

所需的數(shù)學(xué)知識

在之前的公眾號文章中已經(jīng)說過,機器學(xué)習(xí)和深度學(xué)習(xí)中所用的數(shù)學(xué)知識主要來自以下幾門課:

1.高等數(shù)學(xué)/微積分

2.線性代數(shù)與矩陣論

3.概率論與信息論

4.最優(yōu)化方法

5.圖論/離散數(shù)學(xué)

除此之外,有些理論和方法可能會用到更深的數(shù)學(xué)知識,如實變函數(shù),泛函分析,微分幾何,偏微分方程等,但對一般的方法和理論,這些知識不是必須的,因此我們可以忽略它們。對大多數(shù)人來說,沒必要為了那些不常見的方法和理論而去學(xué)這些復(fù)雜的數(shù)學(xué)知識,這會大幅度的增加學(xué)習(xí)的成本與難度。

前面所列的5門數(shù)學(xué)知識中,矩陣論,信息論,最優(yōu)化方法是國內(nèi)理工科本科生基本上沒有學(xué)過的。圖論除了計算機類的專業(yè)之外,一般也不會學(xué)。如果想全面而系統(tǒng)的學(xué)好機器學(xué)習(xí)與深度學(xué)習(xí),補上這些數(shù)學(xué)知識是必須的。

微積分

微積分是現(xiàn)代數(shù)學(xué)的基礎(chǔ),線性代數(shù),矩陣論,概率論,信息論,最優(yōu)化方法等數(shù)學(xué)課程都需要用到微積分的知識。單就機器學(xué)習(xí)和深度學(xué)習(xí)來說,更多用到的是微分。積分基本上只在概率論中被使用,概率密度函數(shù),分布函數(shù)等概念和計算都要借助于積分來定義或計算。

幾乎所有的機器學(xué)習(xí)算法在訓(xùn)練或者預(yù)測時都是求解最優(yōu)化問題,因此需要依賴于微積分來求解函數(shù)的極值,而模型中某些函數(shù)的選取,也有數(shù)學(xué)性質(zhì)上的考量。對于機器學(xué)習(xí)而言,微積分的主要作用是:

1.求解函數(shù)的極值

2.分析函數(shù)的性質(zhì)

下面列出機器學(xué)習(xí)和深度學(xué)習(xí)中所需的微積分知識點,顯然,不是課本里所講的所有內(nèi)容都是需要的,我們只列出所必須的。

極限。極限是高等數(shù)學(xué)和初等數(shù)學(xué)的分水嶺,也是微積分這座大廈的基石,是導(dǎo)數(shù)、微分、積分等概念的基礎(chǔ)。雖然在機器學(xué)習(xí)里不直接用到極限的知識,但要理解導(dǎo)數(shù)和積分,它是必須的。

上確界與下確界。這一對概念對工科的微積分來說是陌生的,但在機器學(xué)習(xí)中會經(jīng)常用到,不要看到論文或書里的sup和inf不知道什么意思。

導(dǎo)數(shù)。其重要性眾所周知,求函數(shù)的極值需要它,分析函數(shù)的性質(zhì)需要它。典型的如梯度下降法的推導(dǎo),logistic函數(shù)導(dǎo)數(shù)的計算。熟練地計算函數(shù)的導(dǎo)數(shù)是基本功。

Lipschitz連續(xù)性。這一概念在工科教材中同樣沒有提及,但對分析算法的性質(zhì)卻很有用,在GAN,深度學(xué)習(xí)算法的穩(wěn)定性、泛化性能分析中都有用武之地。

導(dǎo)數(shù)與函數(shù)的單調(diào)性。某些算法的推導(dǎo),如神經(jīng)網(wǎng)絡(luò)的激活函數(shù),AdaBoost算法,都需要研究函數(shù)的單調(diào)性。

導(dǎo)數(shù)與函數(shù)的極值。這個在機器學(xué)習(xí)中處于中心地位,大部分優(yōu)化問題都是連續(xù)優(yōu)化問題,因此可以通過求導(dǎo)數(shù)為0的點而求函數(shù)的極值,以實現(xiàn)最小化損失函數(shù),最大化似然函數(shù)等目標。

導(dǎo)數(shù)與函數(shù)的凹凸性。在凸優(yōu)化,Jensen不等式的證明中都有它的應(yīng)用。

泰勒公式。又一個核心知識點。在優(yōu)化算法中廣泛使用,從梯度下降法,牛頓法,擬牛頓法,到AdaBoost算法,梯度提升算法,XGBoost的推導(dǎo)都離不開它。

不定積分。積分在機器學(xué)習(xí)中使用的相對較少,主要用于概率的計算中,它是定積分的基礎(chǔ)。

定積分。包括廣義積分,被用于概率論的計算中。機器學(xué)習(xí)中很大一類算法是概率型算法,如貝葉斯分類器,概率圖模型,變分推斷等。這些地方都涉及到對概率密度函數(shù)進行積分。

變上限積分。分布函數(shù)是典型的變上線積分函數(shù),同樣主要用于概率計算中。

牛頓-萊布尼茲公式。在機器學(xué)習(xí)中很少直接使用,但它是微積分中最重要的公式之一,為定積分的計算提供了依據(jù)。

常微分方程。在某些論文中會使用,但一般算法用不到。

偏導(dǎo)數(shù)。重要性不用多說,機器學(xué)習(xí)里絕大部分函數(shù)都是多元函數(shù),要求其極值,偏導(dǎo)數(shù)是繞不開的。

梯度。決定了多元函數(shù)的單調(diào)性和極值,梯度下降法的推導(dǎo)離不開它。幾乎所有連續(xù)優(yōu)化算法都需要計算函數(shù)的梯度值,且以尋找梯度為0的點作為目標。

高階偏導(dǎo)數(shù)。確定函數(shù)的極值離不開它,光有梯度值還無法確定函數(shù)的極值。

鏈式法則。同樣使用廣泛,各種神經(jīng)網(wǎng)絡(luò)的反向傳播算法都依賴于鏈式法則。

Hessian矩陣。決定了函數(shù)的極值和凹凸性,對使用工科教材的同學(xué)可能是陌生的。

多元函數(shù)的極值判別法則。雖然不直接使用,但對理解最優(yōu)化方法至關(guān)重要。

多元函數(shù)的凹凸性判別法則。證明一個問題是凸優(yōu)化問題是離不開它的。

Jacobian矩陣。工科教材一般沒有介紹這一概念,但和Hessian矩陣一樣,并不難理解,使用它可以簡化多元復(fù)合函數(shù)的求導(dǎo)公式,在反向傳播算法中廣泛使用。

向量與矩陣求導(dǎo)。常見的一次函數(shù),二次函數(shù)的梯度,Hessian矩陣的計算公式要爛熟于心,推導(dǎo)并不復(fù)雜。

泰勒公式。理解梯度下降法,牛頓法的優(yōu)化算法的基石。

多重積分。主要用于概率論中,計算隨機向量的積分,如正態(tài)分布。

偏微分方程。在某些理論推導(dǎo)中可能會使用,如變分法中的歐拉-拉格朗日方程。

參考書目:

微積分用經(jīng)典的同濟7版就可以了,這是國內(nèi)很多高校工科專業(yè)的微積分教材。如果想深入學(xué)習(xí),可以看數(shù)學(xué)分析的教材,這是數(shù)學(xué)系的微積分。北大張筑生先生所著的數(shù)學(xué)分析可謂是國內(nèi)這方面教材的精品。

線性代數(shù)與矩陣論

相對于微積分,線性代數(shù)似乎用的更多,而且有一部分屬于矩陣論/矩陣分析的范疇,超出了工科線性代數(shù)教材的范圍。下面列出線性代數(shù)和矩陣論的常用知識點。

向量及其運算。機器學(xué)習(xí)算法的輸入很多時候是向量,如樣本的特征向量。因此熟練掌握向量以及常用的運算是理解機器學(xué)習(xí)的基礎(chǔ)。

矩陣及其運算。與向量一樣,是線性代數(shù)的核心概念,各種運算,常用矩陣,必須爛熟于心。

行列式。直接使用的少,在概率論,某些模型的推導(dǎo)中偶爾使用。

線性方程組。直接使用的少,但這是線性代數(shù)的核心內(nèi)容。

特征值與特征向量。在機器學(xué)習(xí)中被廣泛使用,很多問題最后歸結(jié)于求解矩陣的特征值和特征向量。如流形學(xué)習(xí),譜聚類,線性判別分析,主成分分析等。

廣義特征值。工科線性代數(shù)教材一般不提及此概念,但在流形學(xué)習(xí),譜聚類等算法中經(jīng)常用到它。

Rayleigh商。工科教材一般不提及它。在某些算法的推導(dǎo)過程中會用到,如線性判別分析。

矩陣的譜范數(shù)與條件數(shù)。工科教材一般不提及它。在某些算法的分析中會用到它,它刻畫了矩陣的重要性質(zhì)。

二次型。很多目標函數(shù)是二次函數(shù),因此二次型的地位不言而喻。

Cholesky分解。某些算法的推導(dǎo)中會用到它,工科教材一般不提及它。

特征值分解。對機器學(xué)習(xí)非常重要,很多問題最后歸結(jié)于特征值分解,如主成分分析,線性判別分析等。

奇異值分解。在機器學(xué)習(xí)中廣泛使用,從正態(tài)貝葉斯分類器,到主題模型等,都有它的影子。

參考書目:

線性代數(shù)可以看矩陣分析,如果想更全面系統(tǒng)的學(xué)習(xí),可以看斯蒂文的這本線性代數(shù)。       

概率論與信息論

概率論與信息論在機器學(xué)習(xí)中用得非常多。概率論的知識,一般不超出工科教材的范疇。而信息論是很多同學(xué)沒有學(xué)過的,不過只要你理解了微積分和概率論,理解這些概念并不是難事。下面列出常用的概率論與信息論知識點。

隨機事件與概率。這是理解隨機變量的基礎(chǔ),也是概率論中最基本的知識。

條件概率與獨立性。條件概率非常重要,在機器學(xué)習(xí)中,只要有概率模型的地方,通常離不開它。獨立性在很多地方也被使用,如概率論圖模型。

條件獨立。在概率論圖模型中廣泛使用,一定要理解它。

全概率公式。基礎(chǔ)公式,地位不用多說。

貝葉斯公式。在機器學(xué)習(xí)的概率型算法中處于靈魂地位,幾乎所有生成模型都要用到它。

離散型隨機變量與連續(xù)型隨機變量。重要性不用多說,概率質(zhì)量函數(shù),概率密度函數(shù),分布函數(shù),一定要熟練掌握。

數(shù)學(xué)期望。非常重要,好多地方都有它的影子。

方差與標準差。非常重要,刻畫概率分布的重要指標。

Jensen不等式。在很多推導(dǎo)和證明中都要用它,如EM算法,變分推斷。

常用的概率分布,包括均勻分布,正態(tài)分布,伯努利分布,二項分布,多項分布,t分布等,在各種機器學(xué)習(xí)算法中廣泛使用。

隨機向量。多元的隨機變量,在實際中更有用。

協(xié)方差。經(jīng)常使用的一個概念,如主成分分析,多元正態(tài)分布中。

參數(shù)估計。包括最大似然估計,最大后驗概率估計,貝葉斯估計,核密度估計,一定要弄清楚它們是怎么回事。

隨機算法,包括采樣算法,遺傳算法,蒙特卡洛算法,在機器學(xué)習(xí)中也經(jīng)常使用。

信息論中的一些概念,包括熵,交叉熵,KL散度,JS散度,互信息,信息增益,一定要深刻理解這些概念。如果你不理解KL散度,那怎么理解變分推斷和VAE?

參考書目:

概率論國內(nèi)理工科專業(yè)使用最多的是浙大版的教材:

《概率論與數(shù)理統(tǒng)計》,國外的書籍推薦《信息論基礎(chǔ)》

最優(yōu)化方法

前面已經(jīng)說過,最優(yōu)化方法是機器學(xué)習(xí)的靈魂,用于確定模型的參數(shù)或預(yù)測結(jié)果。不幸的是,工科專業(yè)一般沒有學(xué)過這門課。不過只要你理解了微積分和線性代數(shù),并不難推導(dǎo)出這些算法。下面列出常用的最優(yōu)化方法知識點:

梯度下降法。最簡單的優(yōu)化算法,但卻很有用,尤其在深度學(xué)習(xí)中。

隨機梯度下降法。在深度學(xué)習(xí)中的重要性婦孺皆知。

最速下降法。梯度下降法的改進型,是理解梯度提升等算法的基礎(chǔ)。

梯度下降法的改進型。如AdaGrad,AdaDelta,Adam等,使用深度學(xué)習(xí)開源庫的時候經(jīng)常會看到這些名字。

牛頓法。二階優(yōu)化算法的典型代表,只是在深度學(xué)習(xí)中用的少。在logistic回歸等算法的訓(xùn)練中會用到它。

擬牛頓法。牛頓法的改進,在條件隨機場等模型的訓(xùn)練中會用到L-BFGS等算法。

坐標下降法。在logistic回歸等模型的訓(xùn)練中會用到它,不難理解。

凸優(yōu)化。最優(yōu)化中的核心概念之一,如果一個問題被證明為凸優(yōu)化問題,恭喜你,它基本上可以較好的解決。

拉格朗日乘數(shù)法。在各種算分的推導(dǎo)中經(jīng)常使用,如主成分分析,線性判別分析等,如果不熟練掌握它,你將非常艱難。

KKT條件。拉格朗日乘數(shù)法擴展到帶不等式約束后的版本,在SVM的推導(dǎo)中將會使用。

拉格朗日對偶。不太好理解的知識點,在SVM的推導(dǎo)中經(jīng)常用到,不過套公式并不難。

多目標優(yōu)化。一般很少使用,在多目標NAS中會使用它,如帕累托最優(yōu)等概念。

變分法。用于求解泛函的極值,在某些理論推導(dǎo)中會用到它,如通過變分法可以證明在均值和方差一定的情況下,正態(tài)分布的熵最大。變分推斷中也會用到此概念。如果熟練的掌握了微積分,推導(dǎo)出歐拉-拉格朗日方程并不困難。

參考書目:

最優(yōu)化方法可以參考下面兩本經(jīng)典教材:

圖論

機器學(xué)習(xí)中的某些問題可以用圖論的方法解決,如流形學(xué)習(xí),譜聚類。某些算法的表達也可能用到圖論的知識,如深度學(xué)習(xí)中的計算圖,NAS中的網(wǎng)絡(luò)拓撲結(jié)構(gòu)圖。概率圖模型讓很多初學(xué)者談虎色變,它是圖論與概率論的完美結(jié)合。下面介紹常用的圖論知識點。

圖的基本概念,如頂點,邊,有向圖,無向圖等。

鄰接矩陣與加權(quán)度矩陣,圖論中的核心概念,邊一般都帶有權(quán)重的。

某些特殊的圖,如二部圖,有向無環(huán)圖等,在深度學(xué)習(xí)中經(jīng)常會用到他們。

最短路徑問題。經(jīng)典的Dijkstra算法是每個程序員必須掌握的。

拉普拉斯矩陣和歸一化拉普拉斯矩陣。比較難理解的概念,機器學(xué)習(xí)中的很多算法,如流形學(xué)習(xí),使用圖論的半監(jiān)督學(xué)習(xí),譜聚類都離不開它。理解這個矩陣和它的性質(zhì),是理解這些算法的基礎(chǔ)。


參考書目:

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    国产又粗又猛又爽又黄| 国产日韩欧美在线亚洲| 国产日韩欧美综合视频| 一区中文字幕人妻少妇| 正在播放玩弄漂亮少妇高潮| 翘臀少妇成人一区二区| 日韩一本不卡在线观看| 黄色污污在线免费观看| 国产精品香蕉在线的人| 久久国内午夜福利直播| 亚洲深夜精品福利一区| 精品一区二区三区乱码中文| 99久久人妻精品免费一区| 国产成人免费高潮激情电| 香蕉网尹人综合在线观看| 一二区不卡不卡在线观看| 亚洲中文字幕熟女丝袜久久| 日本一本在线免费福利| 国产精品不卡高清在线观看| 91超频在线视频中文字幕| 国产主播精品福利午夜二区| 精品国产一区二区欧美| 视频一区二区三区自拍偷| 亚洲精品国产第一区二区多人| 亚洲精品一区三区三区| 国产精品免费福利在线| 国产成人精品在线播放| 日系韩系还是欧美久久| 国产精品午夜一区二区三区 | 中文字幕日韩一区二区不卡| 亚洲精品偷拍视频免费观看| 日韩人妻有码一区二区| 视频一区二区 国产精品| 亚洲欧美精品伊人久久| 国产一区一一一区麻豆| 欧美日本道一区二区三区| 国产午夜福利不卡片在线观看| 日韩精品视频免费观看| 亚洲一区二区三区四区性色av| 亚洲中文字幕免费人妻| 好吊视频一区二区在线|