一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

人工智能的數學基礎|AI基礎

 weiwarm 2020-01-16

人工智能的基礎是數學,這一點已經是確定無疑的共識了。

但“數學”二字所包含的內涵與外延太廣,到底其中的哪些內容和當前的人工智能技術直接相關呢?

今天我們就來看看入門人工智能所需要的數學知識。

人工智能必備高等數學知識點清單

AI 技術崗所要求的高等數學知識,大致可以分為四個方面:微積分、概率統計、線性代數,和最優(yōu)化理論。

每個分領域都至少是一本書(也可以是一摞書)。我們在這里暫且抽取和機器學習、深度學習相關的最基礎部分,給大家做一下聚焦:

【微積分】

  • 基礎概念(極限、可微與可導、全導數與偏導數)只要學微積分,就必須要明白的概念,否則后面什么都無法繼續(xù)學習。

  • 函數求導求導是梯度的基礎,而梯度是 AI 算法的基礎,因此求導非常重要!必須要搞清楚概念,并學會常見函數的導函數求法。

  • 鏈式法則符合函數求導法則,反向傳播算法的理論基礎。

  • 泰勒公式和費馬引理這兩者也是梯度下降法的基礎組成,重要程度與求導相同。

  • 微分方程及其求解很重要,是部分機器學習模型求解的必備知識。

  • 拉格朗日乘子法和對偶學習理解 SVM/SVR 的理論基礎。SVM/SVR 作為機器學習模型的常用“中堅力量”,其重要程度不言而喻。

【概率統計】

  • 簡單統計量(個數、最大值、最小值、中位數、均值、方差)及其物理意義概率統計的概念基礎。

  • 隨機和抽樣隨機——概率統計成立的基礎;抽樣——統計的方法。

  • 頻率和概率,以及概率的基本概念搞清什么是概率,它和頻率的區(qū)別與聯系。

  • 幾種常見的概率分布及公式(平均分布、二項分布、正態(tài)分布……)

  • 參數估計只知道大致的分布,不知道具體的參數怎么辦?沒關系,我們可以根據估計一下。其中最重要的是極大似然估計。

  • 中心極限定理如果不知道某事物的概率分布該怎么辦?沒關系,就當它符合正態(tài)分布好了。可是為什么能這樣近似呢?因為我們有中心極限定理呀。

  • 假設驗證到底假設得對不對呢?我們根據樣本來驗證一下。

  • 貝葉斯公式太重要啦!是它使得我們可以根據先驗概率來預測后驗概率。樸素貝葉斯公式自己就是樸素貝葉斯模型本身啊。

  • 回歸分析想想那么多名字里有“回歸”的模型吧!

  • 狀態(tài)轉移網絡概率鏈、隱馬爾可夫模型和條件隨機場。

【線性代數】

  • 向量與標量用向量和標量表示事物特征的差別是什么?

  • 向量空間,向量性質及向量的幾何意義所謂高維低維指的是什么?同一個向量能否存在于不同的向量空間里?向量的移動、轉向和拉伸是如何做到的?

  • 線性函數什么是線性函數,它具備怎樣的性質?

  • 矩陣和矩陣運算矩陣出現的目的是什么?掌握矩陣的基礎運算(與常數/向量/矩陣的加法和乘法)。

  • 特殊矩陣(方陣、實對稱矩陣、(半)正定/負定矩陣等)及其性質根據不同的性質,我們可以劃分出哪些特殊矩陣,它們都有哪些特殊性質?

  • 特征值和特征向量定義、性質,以及特征值求解。

  • 用矩陣求解微分方程。

  • 正交什么是正交?函數的正交,向量的正交,和超平面的正交分別是如何形式化表達的,又具備怎樣的物理意義。

【最優(yōu)化方法】

  • 凸函數與極值搞清楚什么是凸函數,凸函數與極值的關系,極值和最值的關系等。

注意國內不同教科書對于“凸”的定義存在不一致的情況,有些書上把其他書上說的“凸函數”叫做“凹函數”。

直觀而言,我們一向說的“凸函數”是那類一維自變量情況下看起來像個“U”,二維自變量下像個碗的那種函數。

  • 最優(yōu)化什么是最優(yōu)化問題?什么是最優(yōu)化方法?無限制條件和有限制條件下的最優(yōu)化方法基本原理分別是什么?

  • 梯度下降法最基礎最常用的最優(yōu)化方法,以及其他若干最優(yōu)化方法的基礎,務必全面掌握。

  • 其他最優(yōu)化算法了解其他一些常用最優(yōu)化方法,例如,牛頓法、共軛梯度法、線性搜索算法、模擬退火算法、遺傳算法等。

人工智能背后的數學大神們

上述知識點,看起來好像有點嚇人哦,不像是“我能記得住”的樣子。

有沒有辦法能夠輕松愉快不累且高效地掌握人工智能(機器學習/深度學習)領域要用到的數學知識呢?

這里推薦一種筆者在探索中逐步發(fā)現的,簡單直接又有些趣味的方法:以數學家為主線學習高等數學知識 —— 也就是,“以人為軸”學AI數學。

我們先來看看下面這些畫像吧: 

你能認出幾個?

他們分別是(從左到右從上到下依次):牛頓、高斯、貝葉斯、費馬、泰勒、拉格朗日、拉普拉斯、傅立葉,和伯努利。

說實話,現在全球數以千萬計的 AI 技術人員真應該把這些大佬供起來,說咱們的飯碗都是他們賞的也不為過。

  • 牛頓大神發(fā)明了微積分;

  • 輔之以費馬引理泰勒公式,奠定了如今一切 AI 最優(yōu)化算法工程實現的理論基礎。

  • 拉格朗日乘子法為限定條件下多元函數的最優(yōu)化問題提供了解法。

  • 數學王子高斯在概率論和線性代數領域的非凡貢獻不勝枚舉,僅僅高斯分布一項就堪稱概率論之抗鼎模型。

  • 貝葉斯讓我們可以用既往經驗預測未來。

  • 伯努利家族不僅在概率論領域貢獻頗豐,就連他家二弟賣給洛必達的“洛必達法則”亦是求解具有不定型的極限的不二法門。

  • 拉普拉斯算子于微積分和線性代數而言都是非常重要的基石。

  • 傅立葉變換在時域信號和頻域信號之間的橋梁作用成就了整個語音領域。

當然,還有下面這位:

 

  • 萊布尼茨與牛頓分別獨立發(fā)明了微積分,他提出的符號系統一直沿用至今。他同樣是西方二進制算數體系的提出者和線性代數的重要奠基人。

當然,無論微積分、概率統計還是線性代數,都不是在一日之內形成的學科,都經歷了數百年乃至上千年大量人類頂級頭腦的思考和探索,對其做出貢獻的數學家燦若繁星。

對照我們亟待掌握的知識點,以這些理論的提出者為基點,沿著數學史學習之,并同步了解數學發(fā)展的進程。順便還可以以大神們之間的交往和恩怨等八卦作為潤滑劑。

如此一路學來,既多了許多趣味,又能追本溯源,了解到這些理論提出的現實背景(例如:物理學的發(fā)展及其對數學工具的需求)。

在學理論的同時了解這一理論最初的作用域和當時解決的實際問題,對于我們理解其中各類概念的物理意義有著極大的幫助。


    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    丝袜人妻夜夜爽一区二区三区| 亚洲中文字幕亲近伦片| 久草国产精品一区二区| 亚洲av首页免费在线观看| 91精品国产综合久久不卡| 尹人大香蕉一级片免费看| 国产午夜福利在线免费观看| 久久经典一区二区三区| 日韩欧美亚洲综合在线| 欧美日韩乱一区二区三区| 国产成人综合亚洲欧美日韩| 精品人妻少妇二区三区| 激情综合五月开心久久| 激情综合五月开心久久| 男人把女人操得嗷嗷叫| 欧美尤物在线视频91| 国产高清三级视频在线观看| 91精品国产综合久久福利| 中日韩美一级特黄大片| 色狠狠一区二区三区香蕉蜜桃| 视频在线免费观看你懂的| 亚洲少妇一区二区三区懂色| 日韩一区中文免费视频| 成人你懂的在线免费视频| 精品日韩欧美一区久久| 国产偷拍盗摄一区二区| 美女黄色三级深夜福利| 欧美精品亚洲精品日韩专区| 免费大片黄在线观看国语| 亚洲永久一区二区三区在线| 日韩丝袜诱惑一区二区| 好吊色免费在线观看视频| 又色又爽又无遮挡的视频| 偷自拍亚洲欧美一区二页| 国产传媒一区二区三区| 欧美区一区二在线播放| 国产精品成人一区二区三区夜夜夜| 亚洲一区二区三区有码| 久久福利视频这里有精品| 久久热在线免费视频精品| 精品视频一区二区不卡|