1956年,在美國達特茅斯學(xué)院舉行的一次會議上,'人工智能'的研究領(lǐng)域正式確立。六十年后的今天,人工智能的發(fā)展正進入前所未有的大好時期。通過分析這個時代下人工智能與計算機的發(fā)展軌跡,人們可以重新認(rèn)識人工智能、認(rèn)識計算機、認(rèn)識自身。深度學(xué)習(xí):跨時代的技術(shù)今天,我國的人工智能熱潮與30年前日本興起的人工智能熱潮相比,發(fā)生了變化——時間不同、地點不同、主題也不同。這次人工智能的大發(fā)展與深度學(xué)習(xí)緊密相關(guān), 深度學(xué)習(xí):跨時代的技術(shù) (2)從第五代計算機(日本提出的概念)轉(zhuǎn)變?yōu)轭惸X計 算機; (3)從大容量知識庫轉(zhuǎn)變?yōu)榇髷?shù)據(jù)技術(shù); (4)從高速符號推理機轉(zhuǎn)變?yōu)轭惸X芯片; (5)從自然語言理解轉(zhuǎn)變?yōu)楦兄C器人)。 兩次人工智能熱潮最大的不同點在于:大數(shù)據(jù)技術(shù)和概率統(tǒng)計方法(及其理論)兩個因素催生的深度學(xué)習(xí)大潮??梢哉f,大數(shù)據(jù)與概率統(tǒng)計方法共同推動了神經(jīng)網(wǎng)絡(luò)模型的創(chuàng)建和發(fā)展。特別是概率統(tǒng)計方法中的貝葉斯統(tǒng)計學(xué),它在被“引進”人工智能領(lǐng)域后,促使人工智能發(fā)生了革命性的變化。 現(xiàn)代計算機能夠進行深度學(xué)習(xí),能夠在幾百萬幾千萬的參數(shù)下對程序進行優(yōu)化,很多人都以為是計算機變“快”了,其實要歸功于概率統(tǒng)計方法的變化。這個變化使得計算機能把深度學(xué)習(xí)做好。所謂深度,就是網(wǎng)絡(luò)層數(shù)比較多。 深度學(xué)習(xí)可以解決一些不能清楚表述的問題,讓計算機擺脫“知其然,不知其所以然”的窘境——它能讓計算機針對不確定性的問題,針對不斷的變化而不斷地再學(xué)習(xí)。另外,深度學(xué)習(xí)還有一個完全改變傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的作 用——它不僅僅能函數(shù)映射,更重要的是能自動提取多層次重復(fù)的模式(特征),不依賴于人工設(shè)計。 由于使用深度學(xué)習(xí)方法,語音識別、圖像識別的準(zhǔn)確度提高了10%左右,模式識別能力達到新的高度,掀起了 人工智能的進一步發(fā)展熱潮。 一是把人工智能中“知識驅(qū)動”與“數(shù)據(jù)驅(qū)動”兩個方 法結(jié)合起來,因為這兩個方法是互補的。其中,“數(shù)據(jù)驅(qū)動”的優(yōu)點是可以從數(shù)據(jù)中提取模型。 “知識驅(qū)動”的方法是用離散的符號表示,而基于數(shù)據(jù)驅(qū)動的深度學(xué)習(xí)方法是用高維空間向量表示,如果能把兩種方法“溝通”起來,有可能極大地推動人工智能技術(shù)的發(fā)展與應(yīng)用。 另外一個辦法是回到神經(jīng)網(wǎng)絡(luò)的本源。借助于人腦神經(jīng)的工作機制研究,進一步推動深度神經(jīng)網(wǎng)絡(luò)模型的深 入發(fā)展。
現(xiàn)在業(yè)界最熱門的話題是量子計算、類腦計算。不要以為量子計算一問世,現(xiàn)在的計算機就快要淘汰了。實際上,量子算法目前只有一二種可用的算法,所以它不能完 全代替現(xiàn)在的計算機,就像量子通訊不能完全代替現(xiàn)在的 通訊一樣。 而現(xiàn)在的類腦計算,正確地講應(yīng)該叫Brain Inspired Computing,而不是Brain-like。當(dāng)前,連大腦的運行機制都沒有研究清楚,怎么可能開展完全的類腦計算呢?類腦計算研究的開展,需要學(xué)科的交叉,我特別推薦數(shù)學(xué)、認(rèn)知科學(xué)、心理學(xué)、神經(jīng)科學(xué)和語言學(xué)等領(lǐng)域的學(xué)者積極開展交叉學(xué)科研究,從而推動人工智能理論的進一步發(fā)展和創(chuàng) 新。 (根據(jù)張鈸院士在CNCC 2016 大會上所做的特邀報 告《人工智能未來展望,后深度學(xué)習(xí)時代》整理)■ |
|