人工智能 如何稱霸三棋 盧sir在回顧2018年的時候,發(fā)現(xiàn)居然遺漏了一個“知識點”——在2018年的最后一個月, AlphaGo Zero登上了世界頂級學(xué)術(shù)期刊《科學(xué)》雜志的封面。 Google設(shè)計了AlphaGo(圍棋機(jī)器人)的事早已經(jīng)家喻戶曉了,都9102年了,它怎么又出現(xiàn)了? 說到這,盧sir就先帶大伙回顧一下AlphaGo的發(fā)展歷程吧。迄今為止,AlphaGo一共有四個版本:AlphaGo Fan、AlphaGo Lee、AlphaGo Master和AlphaGo Zero。 2016年,AlphaGo Fan以5比0的戰(zhàn)績戰(zhàn)勝了歐洲圍棋冠軍樊麾后,登上了國際學(xué)術(shù)期刊《自然》的封面,成功引起了人類的注意。 緊接著AlphaGo Lee又以4比1的比分戰(zhàn)勝了圍棋世界冠軍、職業(yè)九段棋手李世石,成為了世界上第一個戰(zhàn)勝圍棋世界冠軍的人工智能機(jī)器人。 愈戰(zhàn)愈勇的AlphaGo又以“AlphaGo Master”的身份與中日韓數(shù)十位圍棋高手進(jìn)行快棋對決,創(chuàng)造了連續(xù)60局全勝的戰(zhàn)績,甚至連人類排名第一的棋手柯潔也被打成3比0。 不得不說,AlphaGo的勢頭的確挺猛的,僅一年的時間,就戰(zhàn)勝了大量的世界頂尖的圍棋高手,甚至還引發(fā)了“機(jī)器人打敗人類開始占領(lǐng)地球”的言論。 不過機(jī)智的盧sir早已看破其中的奧秘,“Fan、Lee和Master”看起來是人工智能,實際上卻是“人工智障”。 因為它們在比賽前就會從對手的棋局里進(jìn)行全方位的學(xué)習(xí),比如說:在任意一步時,它們就會把下一步所有可能性都羅列出來,然后一步步往后推,然后選取勝率最高的方法。 說來也搞笑,誰能想到一群圍棋精英會輸給一個連圍棋規(guī)則都不懂的機(jī)器人呢?所以說,AlphaGo只能打有準(zhǔn)備的仗,讓它臨場發(fā)揮的話,可能它連我盧sir都下不贏,更別提它能“占領(lǐng)地球”了。 直到2017年10月19,Deepmind(谷歌下屬公司)在國際學(xué)術(shù)期刊《自然》上發(fā)表的一篇研究論文中就提到了AlphaGo的全新版本——AlphaGo Zero。 AlphaGo Zero與前三代的最大不同是,它能從空白狀態(tài)學(xué)起,在無任何人類輸入的條件下,它能夠迅速自學(xué)圍棋。 也就是說,這次AlphaGo Zero是真的自己學(xué)會了圍棋規(guī)則,系統(tǒng)學(xué)會漸漸從輸、贏以及平局里面調(diào)整參數(shù),讓自己更懂得選擇那些有利于贏下比賽的走法,而不再去分析對手的特征了。 都說新官上任三把火,AlphaGo Zero僅經(jīng)過了3天的訓(xùn)練(自學(xué)),就以100比0的絕對優(yōu)勢戰(zhàn)勝了AlphaGo Lee;經(jīng)過40天訓(xùn)練后又把AlphaGo Master給秒殺了。 高呼著“拋棄人類經(jīng)驗”和“自我訓(xùn)練”問世的AlphaGo Zero的本領(lǐng)當(dāng)然不只是欺負(fù)“老人家”啦,它強(qiáng)大的reinforcement learning(強(qiáng)化學(xué)習(xí)的算法)可以讓它輕松的掌握國際象棋、日本將棋和中國圍棋,而且每項都能當(dāng)世界第一。
其中,盧sir就發(fā)現(xiàn)了一個細(xì)節(jié),由于AlphaGo Zero的機(jī)制從“知己知彼”變成了“百戰(zhàn)百勝”,它下棋能力也出現(xiàn)相應(yīng)的成長式變化,而不是一味的獲勝。話不多說,直接看一組數(shù)據(jù):
那為什么AlphaGo Zero不選擇和人類一較高下,而是和機(jī)器人打起了內(nèi)戰(zhàn)? 因為早在AlphaGo把人類精英棋手虐一遍之后,就宣布不再參與任何人機(jī)之間的下棋比賽,典型的裝完逼就跑。 其實機(jī)器人也是不忍心了,因為早在1997年5月,人類棋手就已經(jīng)被機(jī)器人血虐了——超級計算機(jī)“深藍(lán)”打敗了國際象棋棋王,世界冠軍卡斯帕羅夫,這件事轟動了整個世界。 雖然盧sir覺得AlphaGo Zero已經(jīng)有了質(zhì)的突變,但還是有不少人懷疑它的真實性和可行性。 直到2018年12月,AlphaGo Zero登上世界頂級學(xué)術(shù)期刊《科學(xué)》雜志封面后,《科學(xué)》雜志官方為其正名:“能夠解決多個復(fù)雜問題的單一算法,是創(chuàng)建通用機(jī)器學(xué)習(xí)系統(tǒng),解決實際問題的重要一步。” 那AlphaGo Zero到底是憑什么用短短一年時間從“知己知彼”變成“百戰(zhàn)百勝”的呢? 首先,AlphaGo Zero做了一個全新的定位:重在學(xué)習(xí),而不是急于求勝。 Deepmind采用了5000個TPU(可以簡單的理解為電腦的CPU),再結(jié)合深度神經(jīng)網(wǎng)絡(luò)、通用強(qiáng)化學(xué)習(xí)算法和通用樹搜索算法來打造了一個全能棋手。 AlphaGo Zero的學(xué)習(xí)能力也是一個動態(tài)成長的過程,每次學(xué)習(xí)一種新的棋類或者游戲都會根據(jù)難易程度來展開一段自我博弈,產(chǎn)生的超參數(shù)再通過貝葉斯優(yōu)化進(jìn)行調(diào)整。 與此同時,AlphaGo Zero的“自學(xué)”過程還有一項特別重要的任務(wù)——對自身進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練。 訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),可以精準(zhǔn)地指引一個搜索算法,就是蒙特卡洛樹搜索 (MCTS),為每一步棋選出最有利的落子位置。每下一步之前,AlphaGo Zero的搜索對象不是所有可能性,而只是最合適當(dāng)下“戰(zhàn)況”的一小部分可能性,這就大大提升了精確性和效率性。 關(guān)于神經(jīng)網(wǎng)絡(luò)的優(yōu)勢,Deepmind在論文中也例舉了例子。上圖展示的是在AlphaGo Zero執(zhí)白、Stockfish執(zhí)黑的一局國際象棋里,經(jīng)過100次、1000次……直到100萬次模擬之后,AlphaZero蒙特卡洛樹的內(nèi)部狀態(tài)。每個樹狀圖解都展示了10個最常訪問的狀態(tài)。 不怕機(jī)器人會下棋,就怕機(jī)器人產(chǎn)生意識和情感。 其實對于AlphaGo Zero的人工智能性質(zhì),棋手們最大的感受就是:這個家伙不按套路出牌。因為AlphaGo Zero自己學(xué)習(xí)了每種棋類,所以它并不受人類現(xiàn)有套路的影響,產(chǎn)生了獨特的、且富有創(chuàng)造力和動態(tài)的棋風(fēng)。國際象棋世界冠軍卡斯帕羅夫也在《科學(xué)》上撰文表示:“AlphaGo Zero的棋風(fēng)跟我一樣,具備動態(tài)、開放的風(fēng)格?!?/span> 盧sir:但這樣并不能掩蓋你戰(zhàn)敗的事實。 |
|