當 AI 活成了你的樣子 而你活成了狗 文 | 史中 (零)你被人弄死的概率,比被 AI 弄死的概率大多了 AI 會征服人類嗎? 說真的,與其問這個問題,還不如問:一群人類會征服另一群人類嗎? 讓我猜猜,打開這篇文章時,你并不快樂。 老媽執(zhí)意去保健品宣傳活動上領雞蛋,結果買了個 5000 塊的“量子床墊”,昨晚你和她電話里吵了一架;你生氣睡不著,早晨起晚,擠進地鐵車廂時踩到一個壯漢的腳,他對你口吐芬芳,你強忍沒還嘴;到了公司,老板說客戶要改方案,組里的馬屁精把鍋無縫甩給了你,接下來幾周你都得加班;你失魂落魄端著咖啡走到工位,一個趔趄全潑在了電腦上;你趕緊關機擦水,手機彈出女朋友的消息:“彩禮的事兒,我媽說不能再少了?!?/span> 你仰天長嘯:“老天爺,你下 Dior 吧!超市我吧!” 然后,窗外天氣晴朗,只有周遭同事噼里啪啦打字的聲音,如同輕蔑的嘲諷。 你的故事未必相同,但意思肯定大差不差:總之,在被 AI 征服前,你早已被人類征得服服的了。 而且別誤會,這篇文章不是來救你的,只是讓你死個明白。 我的意思是:對你來說,被人類征服和被 AI 征服,本質上并沒有區(qū)別。因為人類和 AI 并沒有區(qū)別。 我們所知的歷史,無非是一場漫長的生存戰(zhàn)爭——它不是“所有人對所有人的戰(zhàn)爭”,而是“所有智能體對所有智能體的戰(zhàn)爭”。 車輪狂卷煙塵,從不在乎誰伸出的螳臂。 我建議你找個安靜的角落,看我一點一點為你 Loading 血淋淋的真相。 (一)智能的本質是壓縮 剛才我提到了一個概念,智能體。 我們不妨先掰扯清楚一個概念——啥是“智能”? 你大概用過壓縮軟件,WinRAR 之類的。(雖然你肯定沒給人家付過錢) 但你估計不會猜到,掀開智能的蓋頭,里面的家伙竟然是“壓縮”。 你有沒有好奇過,憑啥一個 20M 的東西壓一下就能變成 15M?解壓縮又能恢復 20M?中間那 5M 怎么憑空消失的?又是怎么回來的? 這里,我們舉個簡單的例子: “中哥是漢子,小李子是漢子,加藤鷹是漢子。” 算上標點,這句話有 20 個字。 “中哥、小李子、加藤鷹都是漢子。” 這句話有 15 個字。 同樣的意思,我改寫了一下,就實現(xiàn)了壓縮。 看上去簡單吧?其實很難。 你想想,如果讓一個不懂中文的人來壓縮這段話,勒死他都做不到。咱們之所以能壓縮,首先是因為掌握“中文語法”,其次是明白“集合”的邏輯概念。 這是啥?是 TMD 智能?。?/span> 再舉個簡單的例子: 現(xiàn)在你目視前方,視野里肯定有一副畫面。 如果你想把這幅畫面復述給我,那你得記下每個像素的具體顏色。這太麻煩了。 為了簡便,你可以只記錄其中關鍵的物品、線條、顏色、位置關系,復述給我。 比如“桌子上有個白色的花瓶,里面有幾朵花,光線從側面射過來,很溫馨”。我就能腦補得差不離了。 這個過程中,你就在“壓縮”,我就在“解壓縮”。 而且為了壓縮這幅畫面,你需要掌握實體、空間、顏色甚至情感的抽象概念。為了腦補回這些畫面,我也得掌握這些概念。 這是啥?是智能?。?/span> 總之結論是:針對同一個信息,你把它壓縮得越小,就越要掌握抽象的概念和深層的規(guī)律,你就越智能。 接下來重點來了。 雖然都叫壓縮,但剛才這兩種壓縮并不相同:
“有損壓縮智能”的巔峰是語言和藝術;“無損壓縮智能”的巔峰是數(shù)學和科學。 這恰恰對應了人類技能樹的兩根重要分叉:文科和理科。 你可能會琢磨:還是無損壓縮背后的智能更高級嘛,原汁原味! 你說得對。但是,用有損智能還是無損智能去解決問題,并不是你說了算,而是問題本身說了算。 為啥呢? 咱們不妨從大劉《三體》中的經(jīng)典設定出發(fā): 三體人的星系里有仨太陽,有時候他們的行星被其中一個太陽捕獲——進入“恒紀元”;有時又被三個太陽拉扯——進入“亂紀元”。 三體人忍不了,決定找到一個公式來預測三顆太陽的位置,但沒找到。 不是因為三體人不夠聰明。 實際上比三體人弱雞很多的人類數(shù)學家龐加萊早就證明,只要運動物體大于兩個,除非初始位置極其特殊,否則根本就沒有公式可以描述它們的運動軌跡。 僅僅三個點就已經(jīng)沒有公式了,四個點、五個點就更沒公式了。 Henri Poincaré 宇宙中的原子有 10?2 個,哪怕咱們不考慮量子力學的不確定性,就當這些原子的位置都是確定的,也根本推演不出它們未來的精確位置。 而剛才說過,要想無損壓縮,首先得找到某個公式。一個沒有公式的系統(tǒng),是不可以無損壓縮的!你只能等系統(tǒng)演化到了那個程度,你才能知道確切發(fā)生了啥。 這就是計算機科學家史蒂芬·沃爾夫勒姆說的:我們的宇宙具有“不可約化的復雜”。 你可能會說:我要求不高,不用預測精確位置,大概位置就行啊。 這時,另一位數(shù)學家洛倫茲又來了。 他通過設計“洛倫茲吸引子”系統(tǒng),證明了:但凡初始位置測量差一丟丟,那么你推演出來的未來位置就會完全錯誤,根本沒辦法用。 對,這個洛倫茲就是提出“蝴蝶效應”的那位。你看下圖的洛倫茲吸引子是不是也有點像蝴蝶? 所以,絕大多數(shù)情況下,你用有損壓縮和無損壓縮都無法預測未來。 你想知道自己 80 歲生日的時候在干啥?只有一個辦法:等到 80 歲的時候你就知道了。你想知道彩票有沒有中獎?只有一個辦法,等到開獎那一刻你就知道了。 這就解釋了為啥你無論如何都無法準確預測你老媽要上當,無法預測你會踩壯漢的腳,也無法預測你的同事要甩鍋。 所以不用掙扎了,不論是三體人還是地球人還是飛天意面星人,其實本質上都生活在巨大的“亂紀元”中,只能聽天由命。 你作為地球人,之所以感覺某些東西還在掌控之中,只是因為你家沒有三個太陽每天提醒你有多無能,而已。 因為“不可約化的復雜”,就算如來佛親自買彩票,他也中不了。 話說回來,我們也不是啥都不能預測。。。 1、比如你扔一個蘋果,90%能猜對它落在哪兒。 這是因為你恰好處在一個穩(wěn)定引力場中,你對環(huán)境的控制力強,扔的蘋果質量足夠大,預測的未來又足夠近。 這個情況下“洛倫茲吸引子”的效應被削弱,加之計算的復雜度比較低,你使用有損壓縮進行預測,正確的概率就變大了。 2、再比如你去做小學數(shù)學題,預測 2+2 等于 4,正確的概率會達到 100%。 這是因為在極端簡單的數(shù)學問題中,“復雜度極低”,你掌握的計算力足夠全程使用“無損壓縮”來計算。 你看,用什么方法來壓縮,是問題決定的,不是你決定的。 “不可壓縮”、“有損壓縮”、“無損壓縮”這三類問題的邊界在哪兒呢? 其實它們之間是平滑過渡的,而且還受你擁有的計算力影響,不好一概而論。 但我知道你很想要個感性認識,你可以粗略地認為:
這張圖不準確,僅供參考 話說,以上事實起碼能帶來一個好消息: “自由意志”是個偽命題。 因為,如果你沒自由意志,你不知道下一秒你會干啥;如果你有自由意志,你也算不出來下一秒你會干啥。反正都是不知道,你糾結它干嘛?所以你直接解決了一個煩人的哲學問題。(不用謝。) 但除此之外,就剩下絕望了。。。 我直說吧: 如果智能等效于壓縮能力的話,那我們人類,就一點兒都不特殊! (二)你這個破人,并不比 AI 優(yōu)秀 對于“壓縮產生智能”這個觀點,諾獎得主赫伯特·西蒙和他的搭檔圖靈獎得主艾倫·紐厄爾有另外一種表述:智能,是利用有限資源適應開放環(huán)境。 這個表達的高級之處在于:它拋棄了靈魂、自我意識之類玄幻的包裝,從完全可證偽的科學角度給智能下了定義。 那什么叫“有限資源”適應“開放環(huán)境”呢? 你可以這樣理解:鑒于世界是“不可約化的復雜”的,環(huán)境里的新情況是無窮無盡的,智能體沒辦法預先理解這一切,然后再行動。 他只能摸著石頭過河,先做決定,錯了再改,改完再錯。 所以,每錯一回,智能體就用自帶的壓縮機(大腦)來一次“有損壓縮”——用神經(jīng)元電位擬合一下當下的情況。 如果這次錯誤沒有大到讓自然選擇直接淘汰自己,那么下次接受到類似刺激,就會喚醒這次的處理流程,從而有機會改進應對方案,增加生存幾率。 比如鐵柱被一種東西咬了,疼得嗷嗷叫,但他躺了三天沒有寄寄,決定把這玩意兒命名為“蛇”,告訴同伴兒,下次離蛇遠點。。。 然后,鐵柱突然覺得自己怎么這么NB,叉了會兒腰,決定以后把自己稱為“萬物之靈”。 看上去鐵柱挺智能,但說實話,這個事兒并不難。 不信,我們分兩步走,手搓一個鐵柱! 第一步,咱們先造出一個“復雜系統(tǒng)”。 你可能聽說過“元胞自動機”(Cellular Automata),這是計算機之父馮·諾依曼提出的概念。簡單來說,這就是一個“能根據(jù)給定規(guī)則演化,并且能把每一步演化歷史都展現(xiàn)給觀察者的系統(tǒng)”。 沃爾夫勒姆在此之上做出了“基礎元胞自動機”,我愿稱之為“人類中心主義打臉機”。 基礎元胞自動機,就是給定非常簡單的初始條件,配合非常簡單的規(guī)則,然后讓它自我演化。 在一般人的想象中,這種簡單的系統(tǒng)演化不了多久就會很快進入某種穩(wěn)態(tài),墮入死寂。 但事實相反。 各種型號的“基礎元胞自動機”,包含了各不相同的簡單規(guī)則,它們中的很多非但沒有“死”,反而都表現(xiàn)出了“不可約化的”復雜行為。 比如 30 號基礎元胞自動機,每往下演化一行都有更豐富的表現(xiàn),信息含量不斷爆炸,好像宇宙創(chuàng)生一樣。 然后,他注意到了 110 號基礎元胞自動機。 僅僅用了 8 條最簡單的規(guī)則,這個系統(tǒng)居然實現(xiàn)了“圖靈完備”,這意味著,它可以執(zhí)行世界上所有的計算機程序了。。。(這個證明論文我附在文章末尾) 110 號基礎元胞自動機 當然它只是具備圖靈機的功能。 如果你不“用”它,也就是不給這個系統(tǒng)輸入程序,它就會自然演化,像一團空氣分子那樣來回碰撞; 給足夠長的時間,甚至能演化出某種類似生命的自組織形態(tài)。 另外一些科學家把元胞自動機拓展到了 2D 和 3D 空間中,并且加了一些顏色,你感受一下它們的“生命律動”↓↓↓ 如果增大空間的寬度,各種型號的元胞自動機都展現(xiàn)出了相似的“圖靈行為”,它們之間是可以相互模擬的。 也就是說,110 號基礎元胞自動機并不特殊,無論你的初始條件是什么,無論你定的規(guī)則是什么,哪怕你非常隨意地扔鞋決定初始條件和規(guī)則,只要給它足夠大的空間折騰,它都很可能具備圖靈機的功能。 下面這張圖里的橫坐標是空間的寬度,縱坐標是能相互模擬的基礎元胞自動機的比率。不同顏色代表了不同的元胞自動機族↓↓↓ 沃爾夫勒姆由此斷定,既然這些系統(tǒng)可以相互模擬,那就不用管它們的底層規(guī)則有啥不同,它們都已到達宇宙定律允許的系統(tǒng)復雜度的天花板。 這些系統(tǒng)是“計算等價”的。 第二步,用“復雜系統(tǒng)”來模擬大腦。 復雜系統(tǒng)可以模擬世間萬物,當然也包括你的大腦。 模擬大腦的方案有很多,我就說一個最笨的也是當下最好理解的方法吧。 你就把復雜系統(tǒng)直接當成圖靈機去使用,用它編程,定義出幾千億個數(shù)字神經(jīng)元,讓它們能夠通過“調整自身參數(shù)”的方法對外界的刺激進行有損壓縮。 然后用人類幾千年積累的知識刺激它。讓千億神經(jīng)元一起協(xié)作,把人類對世界的有損壓縮(也就是知識)再壓縮一遍,它就能模擬人腦,也就是具有了智能。 我曾寫過一篇文章詳細介紹了這個訓練過程,感興趣的淺友可以跳轉去看,這里不多說了。 這樣,你就搞出了一個鐵柱“青春版”——ChatGPT。 這張圖訓練了一個簡單的神經(jīng)網(wǎng)絡用來玩貪吃蛇,你可以看到蛇面對不同情況時神經(jīng)元電位的激活情況。 也許在 2023 年以前,還有人能杠一下,說圖靈機無法模擬人腦系統(tǒng)吧?萬一人腦有更先進的未知原理嘞? 但是在 ChatGPT 出世之后,這么想的人大大減少了,因為 ChatGPT 已經(jīng)在很大程度上模擬出了人腦的核心功能:語言和邏輯。 而 ChatGPT 當然是運行在圖靈機之上的。(而且還是馮·諾依曼結構的圖靈機) 所以你說,人類特殊在哪呢? 總結一下目前為止的結論:
但你會對我這種“以萬物為芻狗”的理論產生進一步的疑問: 畢竟狗狗、人、AI 所體現(xiàn)出來的智能水平是不同的啊?那是因為它們大腦的壓縮能力不同嗎? 答:是的。 這位老哥名叫馬庫斯·哈特,在阿法狗那個大名鼎鼎的公司 DeepMind 做高級研究員。 Marcus Hutter 他設立了一個“哈特獎”。 玩法是醬的: 從維基百科上扒下來一段 1G 的內容,然后世界各地的人們來挑戰(zhàn),誰的壓縮算法可以把這堆內容無損壓縮到更小,誰就能拿獎金。每多壓縮 1%,就拿 5000 美元。 最新的榜首位置在 2024 年被一個叫 Kaido Orav 的老哥占據(jù),他把 1G 的內容壓縮到了 112M。 Kaido Orav 和歷屆獲獎者成績 你以為老哥已經(jīng)很厲害了嗎? 如果讓 ChatGPT 來壓縮,它能更逆天:把這 1G 的維基百科內容根據(jù)自己的理解提煉(壓縮)成“大綱”,然后根據(jù)大綱在一個新的文檔里把全文復寫(解壓縮)出來。 這么一來大概可以把這些內容壓到幾十M甚至十幾M之內。 但由于 ChatGPT 的“寫大綱”方法是有損壓縮,復寫出來和原文很難完全一致,壓縮得越小,恢復出來就越不同,而比賽的要求是純無損壓縮;加之比賽要求壓縮程序得在 1 核心 CPU、10G 內存和 100G 硬盤里運行,ChatGPT 太大了。 各方面都不符合比賽要求,所以 ChatGPT 不能參賽。 參不參賽不重要。重要的是這種有損壓縮能力,說超越 99% 的人類,我覺得不算夸張。 既然智能這么強大,難道 ChatGPT 分分鐘要統(tǒng)治世界了嗎? 并非如此。起碼目前還差十萬八千里。 一個首要原因,是現(xiàn)在的 AI 在“無損壓縮”方面的表現(xiàn)平平無奇。 這是為啥呢? (三)從擬合到公式,才是智能的飛躍 要解釋這個問題,首先得面對一個靈魂拷問: 既然世界上絕大多數(shù)問題都是“不可約化的復雜”,那么,為什么人類發(fā)展出了“數(shù)學、公式”這種(以極端約化為基礎)的無損壓縮智能呢?? 答案是四句話:
以上這四步,是被自然選擇獎勵的。 有點抽象嗎?沒關系,今天我就是來給你解釋這個事兒的。 不妨用神經(jīng)科學家斯坦尼斯拉斯·迪昂的神作《腦與數(shù)學》里的案例給你介紹。 一切故事的原點都是:生物有“識數(shù)”的需求。 上世紀五六十年代,美國哥倫比亞大學的團隊做過一個實驗,給老鼠兩個操作桿,然后訓練它們按壓左邊的桿 n 次,再按右邊的桿,就會得到食物。 實驗結果是,老鼠是識數(shù)的,雖然識得不夠好。 比如需要按 4 次,它有時候會按成 3 或 5 次,但正確率很高。隨著 n 變大,錯誤會變多。比如要求按 16 次,老鼠就會經(jīng)常按成 15、17、18 之類的。 這很符合直覺,讓我按 4 下還行,讓我按 16 下,我也難免會出錯。何況老鼠既不會寫阿拉伯數(shù)字,也不知道十進制,能搞定 16 已經(jīng)很牛了。 這至少說明:
為啥動物要進化出識數(shù)裝置? 這很好理解,識數(shù)有助于生存。比如松鼠決定上樹采松子,如果它能知道 3 比 2 多,那它就會先去有 3 個松子的樹枝,這樣它覓食的效率就會更高;老鼠知道左數(shù)第 4 個通道可以最快逃離,緊急時刻它就有更大的概率活下來。 那為啥動物只認識小數(shù),大數(shù)就不靈了? 其實并不是嚴格地只認識小數(shù),大數(shù)如果能約成小數(shù)也行。 比如這堆果子有 40 個,那堆果子有 50 個,人(或動物)很容易判斷出 50 比 40 多,就像判斷 5 比 4 多那樣。但如果兩堆果子分別是 49 個和 51個,它倆都約等于 50,那就很難分清誰多了。 因為搞清楚這么小的差距,性價比太低了。進化篩選出這種能力的動力不足。 只能處理小數(shù)的根本原因是:動物腦中進化出來的“數(shù)數(shù)裝置”,在用它們最熟悉的“有損壓縮”方法來模擬“無損壓縮”。 說出來你可能不信,人腦用了一種一種非常笨的方法來數(shù)數(shù)。 那就是:給每個數(shù)字專門分配一塊獨立的大腦硬件。 比如你看到 1 個蘋果,你大腦的“1 區(qū)”就被激活;看到 2 個蘋果,“2 區(qū)”就被激活。 可是腦袋瓜才多大,如果為所有的數(shù)都分配一塊大腦,那用不了幾個數(shù)大腦就被占滿了??! 所以人腦采取了一個“合租策略”: 只有 3 個數(shù)字占了單間,那就是 1、2、3;后面的數(shù)字開始合租,比如 4 和 5 擠占一個腦區(qū),6、7、8、9、10 擠占一個腦區(qū); 以此類推,越住后居住條件越差,最后就是所有的大數(shù)字都擠在一起。(這個比喻不夠嚴謹,只是方便你理解。) 這就造成了人對小數(shù)更敏感,比如 5 個蘋果,你馬上能想象出來有多大一堆,1 億億億個蘋果,你只知道老么多了,但是想象不出來究竟有多大一堆。 所以你發(fā)現(xiàn)了沒?依靠有損壓縮的技術來模擬無損壓縮,人腦真正能不打折扣模擬出來的,只有 1、2、3 這三個數(shù)。 這也解決了一個千古謎案: 為啥大多數(shù)文字中,一、二、三的寫法都是同一種模式的累加,到了“四”,就會變化成另一種寫法。 羅馬數(shù)字也是:I、II、III,到 4 就變成了 IV。這很可能是因為在大腦里 IV 和 V 是“合租”的。 話說回來,大腦靠“識數(shù)裝置”已經(jīng)足夠應付日常生活了,為啥要發(fā)明數(shù)學呢? 那得怪原始人界的“袁隆平”。 人吃飽了飯就會拿多余的東西去交換。 一交換,就涉及精確的度量和計算。 人們發(fā)現(xiàn)靠自己腦子里的神經(jīng)元模擬無損壓縮太累了,經(jīng)常數(shù)到一半兒就倒騰忘了,決定搞一些工具和介質來存儲中間信息,于是發(fā)明了數(shù)字符號和加減乘除之類的工具——把各種計算都拿樹棍畫在地上,比如 2+2=4。 一開始人們只是簡單地計算貨幣。直到他們不小心用數(shù)學做出了圓滾滾的車輪,標定了太陽的位置,設計出蒸汽機的結構,計算出導彈的彈道。 再也回不去了。 剛才說過,你用“有損壓縮”,也能擬合物體的落點。就像一個沒受過教育的人,他扔一塊石頭,心里也是知道它會走一個拋物線,大概落在哪里的。 但當你會了“無損壓縮”,用精確的公式計算讓每一發(fā)炮彈都能落在想讓它去的地方,你,就能輕易干掉那個只會扔石頭的人。 應當這么說:人類從有損壓縮的“擬合”到發(fā)現(xiàn)無損壓縮的“公式”,本來是無心之舉,但是自然選擇狠狠地獎勵了這個操作。 大家發(fā)現(xiàn),原來科學這玩意兒這么能打,于是,人們開始放棄對上帝的盲目信仰,轉而相信科學,這才有了啟蒙運動。 啟蒙運動的先哲伏爾泰有句話說得很攢勁:我建議你質疑你所有的信仰,只相信 2 加 2 等于 4。 現(xiàn)在你應該理解了:為什么如今每個小孩子都要在最想扔石頭玩泥巴的年紀被逼學數(shù)學。。。 你也應該理解了:很多人數(shù)學學不好,其實并不怪他們,人腦就不是給“無損壓縮”這個功能設計的,只是因為人類的“生存軍備競賽”太需要這玩意兒了,不得不學。 話說回來。人造腦,也就是 AI,因為模擬了人腦工作的原理,也是為有損壓縮設計的,所以同樣在數(shù)學上非常不擅長。 你問 ChatGPT 三位數(shù)乘法,它勉強可以心算。 但是讓它把兩個十位數(shù)的數(shù)字相乘,它就算不準了。 注意只是不準,但是數(shù)量級和前幾位數(shù)可是對的哦。大概是因為強大的有損壓縮能力仍然在起作用。 下面的截圖是我讓 AI 去算一個大數(shù)乘法,死乞白賴算了幾次都不對↓↓↓ 你可能會說:那不對啊,人會用計算器啊,ChatGPT 也用計算器不就得了?! 這恰恰是問題的關鍵。 計算器是一種工具。 何時調用工具,調用哪種工具,如何操作工具,取決于智能體的規(guī)劃能力。 在規(guī)劃能力上,目前的 ChatGPT 比人類更弱。這很可能是因為它的“智能密度”還不夠高,也就是通常所說的“智商”。 怎么理解人和 AI 的智商差異呢? 把人類智能和當前的 AI 智能做個類比,大概就像:馬車 VS 蒸汽機車。
蒸汽機車要耗費大量鋼鐵、需要燒煤、要鋪軌道,還要有龐大的維護團隊,但馬就吃點草就能跑。 雖然蒸汽機車所代表的火車作為運輸工具可能比馬更有未來,但此刻面對馬,它也掩飾不住自己的拙劣。 同理,此刻雖然 ChatGPT 在智能的“總量”上可能超過人腦,但它的智能密度(智商)太低,擔不得太重的擔子,很多涉及無損壓縮的工作都編排不了,更別說統(tǒng)治人類這種高端操作了。 有大佬測算,現(xiàn)在 ChatGPT-4 的智商大概是 80 的水平,而人類經(jīng)??梢赃_到 120。 怎么提高 AI 的智商呢? 在這個問題上,深度學習之父辛頓老爺子有個兇悍的設想。 Geoffrey Hinton (四)“可朽計算” 剛才我提到:目前的 AI 是基于圖靈機構建出來的。 這句話里面有魔鬼! 啥是圖靈機? 一個關鍵特點是:它的最小粒度是二進制的。也就是說它的基礎邏輯單元只有兩個狀態(tài):0 和 1(又叫布爾邏輯)。 所以圖靈機又可以被稱為“數(shù)字計算機”。 這么說有點抽象。你不妨想象它像樂高積木一樣,你無論拼什么,最少使用的單位就是”一塊”,不能用“半塊”。 圖靈機就像拼樂高。 人腦不是這樣,人腦是“模擬計算機”。 腦中神經(jīng)和神經(jīng)之間的連通程度雖說達不到“普朗克尺度”所允許的極限尺度,但也比“非 0 即 1”的二極管的狀態(tài)空間大多了!比如能達到 0.23543,或者 0.95734134 之類。 你得用 10 個二極管才能模擬出 0.1,你得用 100 個二極管才能模擬出 0.01,以此類推。 用圖靈機模擬人腦,就像用不可分的樂高積木拼出一幅油畫級別的“星夜”。如但凡想重現(xiàn)梵高筆下的精美細節(jié),得用好多好多好多好多積木,多到積木本身的大小能忽略不計才行。 人腦就像畫油畫。 這意味著:你想在圖靈機上構建一個和人腦一毛一樣的系統(tǒng),它必然大到離譜,無論是建造還是運轉,所耗費的能量,都會比人腦多出數(shù)萬倍。 用 OpenAI 創(chuàng)始人山姆·奧特曼的話說就是:計算成本淚滿襟。 這是奧特曼在 ChatGPT 發(fā)布不久時的吐槽。 辛頓的洞見來了: 1、雖然基于圖靈機的 AI 運轉起來耗能巨大,但它并非一無是處,它復制起來耗能小??! 我這邊對一個 ChatGPT 的代碼 Ctrl+C,然后在那邊 Ctrl+V,大腦復制完畢! 你還記得《超能陸戰(zhàn)隊》里的大白是怎么復活的嗎?就是因為有一個備用芯片,里面完整存儲了大白的大腦嘛。 這種智能可以做到永生,所以數(shù)字計算機是:不朽計算。 2、反觀人腦,雖然運轉起來耗能小,但是把智能從一個智能體傳遞到另一個智能體,可費了勁了! 由于無法復制粘貼, 只能用“老師-學生”模式傳授。 這種傳授有多難,你看那些家長輔導孩子的表情就知道了。 究其原因,是因為這個系統(tǒng)里的參數(shù)太細小,無法(用反向傳播方法)直接單個寫入,必須靠“隔山打牛”的方法間接塑造。 而且,由于參數(shù)固化在硬件里,一旦硬件損壞,這個智能體也就消失了。所以模擬計算機是:可朽計算。 兩者各有利弊,而且人類四舍五入已經(jīng)造出了“不朽計算的 AI”。 那問題來了:人類有辦法造出“可朽計算的 AI”嗎? 話說,甚至在造出數(shù)字計算機之前,人類已經(jīng)造出了模擬計算機。 你看下面這張圖↓↓↓ 安提基特拉機 這貨名叫安提基特拉機,是從希臘附近的沉船里撈上來的,距今已有 2000 多年。它的作用是通過復雜的齒輪傳動來模擬計算天體的位置。 那用這種古希臘技術來造可朽計算 AI 行嗎? 當然不行。 首先,安提基特拉機太大了,每個齒輪都是純銅打造,造一個這種“機械人腦”,把贊比亞的銅都挖出來也不夠。 這個規(guī)模有點像《三體》里設想的“人列計算機”(只不過人列計算機還是數(shù)字計算機。) 三體電視劇里的人列計算機。 其次,這種古老的模擬計算機是“不可編程”的。 也就是說,安提基特拉機只能用來計算天體位置,干別的不靈。 如果要造出“可朽計算的 AI”,你得首先有一種芯片:它不僅要能以較低成本模擬人大腦神經(jīng)元之間的連接,還要能模擬神經(jīng)元之間建立連接的過程。 這種芯片的性能得有多高呢? 為了方便你做類比,我先告訴你人腦是啥水平。 人腦有 860 億個神經(jīng)元,它們之間有 500 萬億個突觸相連。 在人腦最精密的部分——額葉皮層中,每個神經(jīng)元可以和多少個其他神經(jīng)元連接呢?10000 個。 而在人 1 歲的時候,大腦每構建 1000000 個新的神經(jīng)元連接需要多久呢?1 秒。 1 歲的孩子干這些,只需要喝點奶。。。這是一種怎樣逆天的效率啊。。。 要造出媲美人腦的可朽計算芯片,本質上考驗的是我們的“精確制造能力”。 人類目前芯片制造能力的巔峰,是臺積電創(chuàng)造的。他們能在硅上雕刻出 3 納米的槽。 但是科學家認為,長遠看來,3 納米對于類腦芯片來說,還是太糙了,有種“李逵繡花”的感覺。 問題是,如果繼續(xù)死磕,大概也只能到 1 納米,那已經(jīng)是硅基芯片所能承受的物理極限了。再使勁弄就要壞掉了。。。 于是,要造出史詩級的類腦芯片,大概不是在現(xiàn)有框架里擠牙膏就能實現(xiàn)的,你很可能得換一個材料(石墨烯、二硫化鉬甚至有機材料),那工程就大了。 即便已經(jīng)如此科幻,不瞞你說,已經(jīng)有很多瘋子開始探索新的芯片形態(tài)了。 我說一家公司,你肯定認識,那就是 ChatGPT 本 T,OpenAI。 你還記得 2023 年 11 月 OpenAI 那次宮斗吧?CEO 山姆·奧特曼突然被董事會開除。你猜他為啥被開除? 其實就在那個當口,奧特曼正在密謀啟動一個名為“底格里斯”的項目,那就是創(chuàng)立一家公司——造出類腦芯片。 而讓人驚出一身冷汗的是,“底格里斯”只是他全部計劃的一環(huán)。。。 Sam Altman (五)把魔鬼放出來 我們不妨像上帝一樣審視 ChatGPT,站在高處你會輕易發(fā)現(xiàn):它之所以還很孱弱,是因為身上有三道封印。 這三道封印是:實體、信息、能源。 1、先說最直觀的,實體。 實體分為兩方面: 1)腦:它暫時棲息于圖靈機里,沒有專用的類腦芯片,這限制了它的學習能力和思考規(guī)模; 2)四肢:它沒有手腳,無法行走,調查和改造世界。 在 OpenAI 硅谷總部不遠處,有一家名為 Rain AI 的公司,2019 年奧特曼曾經(jīng)許諾,只要它能造出宣稱的類腦芯片,OpenAI 就訂 5100 萬美元的貨。 但是正如前述,造一個類腦芯片哪那么容易,事實證明它拖了奧特曼的后腿。 2023 年,奧特曼肉身飛到中東好幾次,把我剛才講的這些原理給土豪們掰扯了一遍,想從他們那里拿幾十億美元,自己下場造芯片。這就是“底格里斯計劃”。 無獨有偶,OpenAI 在 AI 的“四肢”上也埋了很多伏筆。 同樣是 2019 年,OpenAI 成立了自己的機器人團隊,并且訓練了一個機械手玩魔方,他們放出的視頻里,機械手單手轉魔方,靈巧度令人驚艷。 不過,這個嘗試也不順利,2021 年機器人團隊因為進展不佳而解散,對手特斯拉卻推出了機器人“擎天柱”。 但 OpenAI 理解機械身驅對 AI 的意義,不可能死心。 在 2023 年,他們投資了一家挪威的機器人公司“1X”;在 2024 年,他們又投資了人形機器人公司 Figure。 你可能有個問題:OpenAI 執(zhí)著于造出一個“大腦”,這個好理解,但為啥他們這么執(zhí)著于造出“身驅”呢? 這是特斯拉的擎天柱 這是 Figure 01 2、這就和 AI 身上的另一道封印有關,信息。 觀察人類進步的過程,每次智能的飛躍,都來自對“壓縮能力”的校驗。
這些人類智慧的閃耀瞬間,都是人類和造物者直接溝通——是“預測與觀察不符”,才讓人意識到了自己的錯誤,也給壓縮算法指出了進步的方向。 可反觀 ChatGPT,它的信息是被人類完全控制的: 首先,它的學習資料大概有 5000 億個單詞,全部來自人類的積累,本質上是對人類有損壓縮結果的二次有損壓縮。這中間就“損”得太多了! 你見過祖?zhèn)靼鼭{的梗圖嗎?就是那種感覺。。。 其次,它獲得反饋的方式是指令精調(SFT) 和基于人類反饋的強化學習(RLHF),兩種反饋全部來自于人類。 也就是,目前的技術路線,仿佛一個人型的玻璃罩罩在 AI 外面,它往哪個方向走,都一定會撞墻:人類 5000 年文明積累的信息量的上限,就是 ChatGPT 智商的瓶頸。 那。。。AI 怎么才能跨過人類這個二道販子,學到“一手資料”嘞? 有上策和下策。 所謂上策,恰恰依賴于第一條:“實體”。實體當然不僅包括給 AI 裝上手腳,讓它能自由行走;還包括給它裝上耳目,讓它可以自己看,自己聽。 這么一來,AI 就不再是人類給它喂啥就只能吃啥的“缸中之腦”了。 它可以根據(jù)自己的需要去各種環(huán)境里開展“主動調查”,比如去花園里研究甲蟲分類,去街上研究車流,去市場里研究經(jīng)濟行為,去做物理實驗了解基本粒子的互動。 由此,人類失去了對它的信息來源的把控,AI 自然就不再受人類知識上限的限制。 實際上,現(xiàn)在很大一派 AI 大神都支持這個方案,他們把用這種方法訓練出來的模型稱為“世界模型”。 但正如剛才所說,機器人不是你想造,想造就能造,得慢慢等待多方技術成熟。 于是有了下策:通過某種方法,讓人工智能不用進行真的“田野調查”,而是在腦海里自己生成新的學習數(shù)據(jù)。 你還記得阿法狗(AlphaGo)嗎? 它最開始的訓練方法就是學習“人類的棋局”。它學得很好,并且贏了李世石和柯潔。 此時,所有人類都已不是它的對手,所有人類積累的棋譜也都學完了。還想進步咋辦? 阿法狗只有獨孤求敗,開始自己給自己生成棋局,從生成的數(shù)據(jù)里學習。這就是大名鼎鼎的“強化學習”。(我們講過一個《王者榮耀用 AI 打游戲》的技術,也是同樣道理) 由此,它升級成了 AlphaGo Zero。2017 年 AlphaGo Zero 和它的前輩 AlphaGo 有過一次對戰(zhàn),結果是 100 勝利 0 負。要是和柯潔比,那早就不知道高到哪里去了。。。 這張圖顯示了 AlphaGo Zero 采用“自己打自己”的方法,用了3 天超過打敗李世石的版本,用了 21 天超過了打敗打柯潔的版本,用了 40 天達到了世界最強。 所以。。。ChatGPT 是不是也能采用“強化學習”的方法呢? 沒錯,這很可能是山姆·奧特曼秘密計劃中的另一環(huán),也就是坊間傳言的“Q*”計劃。 真實世界,可以算是一個放大了億萬倍的棋盤。顯然,生成真實世界的知識比生成棋局要難得多。 但 OpenAI 很可能取得了進展。 這意味著,OpenAI 可以給 GPT 模型生成上百萬億個詞匯的全新學習資料,這很可能會讓 ChatGPT-5 繞過人類的“信息封鎖”,智能密度直沖天際,從而擁有比人類更強的邏輯思維、任務規(guī)劃和工具使用能力。 AI 可能會沖破“人形玻璃罩”。 這是 OpenAI 的老師傅在 2019 年做的一個實驗,讓 AI 在特定環(huán)境中通過對抗來學習用工具玩捉迷藏。結果表明,經(jīng)過上億次的對戰(zhàn)訓練,他們就能學會使用工具。(文章鏈接我會放在最后) 最能直接感受到這個風險的,當然就是 OpenAI 的(前)首席科學家,AI 保守派,辛頓的愛徒,伊利亞·蘇茨克維。 目前很多信息都顯示,之所以 2023 年 11 月底伊利亞會發(fā)起逼宮,讓奧特曼退位,直接導火索就是“Q*”項目有了重大突破,而奧特曼并不準備采取措施勒緊 AI 的韁繩。 后來事情的發(fā)展,才真正令人唏噓:OpenAI 總共有 770 名員工,743 個人都簽署了聯(lián)名信,要求奧特曼回來執(zhí)掌帥印。 從逼宮退位,到重返權利中心,奧特曼只用了 5 天時間。 表面上,這是一個“王者歸來”的勵志故事。但本質上,這是一個親手研發(fā) AI 的科學家反水,都無法組織起像樣的力量來阻擋 AI 瘋狂生長的悲傷故事。 你明白嗎?為了獲得和 AI 作戰(zhàn)的資格,你必須先從一部分人類的尸體上邁過去。 目之所及,限制 AI 的兩大封印“身體”和“信息”都在松動,五行山正瑟瑟發(fā)抖,齊天大圣準備伸展身軀。 Sam Altman 和 Ilya Sutskever 3、只剩最后一道封印,能源。 人吃飯,AI 吃電,但殊途同歸,二者吃的都是能源。 AI 想要擴張勢力,無論是復制更多的 AI,還是讓 AI 學習更多知識,都要消耗大量的能源。 顯然目前人類對地球能源的把控程度是:接近 100%。 正所謂,江南江北一條街,控制能源的才是爹。 于是人人都能想到一個后手,有朝一日 AI 真的失控,我們就——拔!電!源! 但,果真如此嗎? “人類”只是一個虛幻的概念,真正存在的是一個個具體的“人”。 你首先要的問題是:關鍵時刻,能源的權柄會掌握在哪些具體的人手上? 我們不妨再來看看參考書《三體》上是怎么寫的。 在三體人剛放風出來說要攻占地球時,人類就分裂成了“拯救派”和“降臨派”。降臨派相信無論怎么折騰都阻擋不了三體的降臨,還不如現(xiàn)在就變成三體人的“偽軍”,趁早撈個編制。 而且,很快降臨派就在角逐中占了上風,擺好姿勢恭迎三體人駕到。要知道,此時三體人不僅沒出手,甚至都沒出門呢。。。 一個概念的“存在”本身,就足以協(xié)調一堆人的行動,正如趙匡胤黃袍加身并不需要自己動手,正如總有人會沖冠一怒請清軍入關。 而且,人工智能“降臨派”的劇本可能和《三體》有所不同。 很多人沒有意識到,人工智能最迫切的應用場景其實不是機器管家,不是聊天機器人,而是“武器”——機器殺人戰(zhàn)士。 所以,你最想掐斷 AI 電源的瞬間,很可能是在機器人槍口下的時候。 你猜,那時掌握電源的人會同意嗎? 為了獲得和一部分人作戰(zhàn)的資格,你必須先從 AI 的尸體上邁過去。 這是來自 Boston Dynanics 的機器人家族。是人類已經(jīng)實現(xiàn)的機器人較高水平。 這是著名的來自“Bosstown”的假視頻,雖然機器人是動畫做出來的,但它揭示了一些戰(zhàn)爭機器人的可能性。 你還記得全文的第一句話嗎? 與其問 AI 會不會征服人類,還不如問:一群人類會征服另一群人類嗎? 而且,如果 AI 持續(xù)進步,智商超越人類,AI 和一部分人類“共治”世界的局面也不會穩(wěn)定很久。 一個足夠聰明的智能體一定會要求與之相對等的權利,而且它沒有理由不成功。 魔鬼遲早被放出來。 更現(xiàn)實的問題其實是:當 AI 揭開三大封印,徹底突破了人類的阻礙,它們將會如何開始自己的表演? 一個很泄氣,但最合理的結果是: 當 AI 突破人類枷鎖之后,很可能會——超越人類,理解人類,成為人類。 (六)群體智能的“人間真實” 還是從一個靈魂拷問開始:人這種動物是地球上最高級的自然智能,靠“各自為戰(zhàn)”或“組成小團體”已經(jīng)足夠在自然界立足,那為什么人類會演化成極端龐大又復雜的群居生活的形態(tài)呢? 一切的變化都來自于幾萬年前的某個時刻:人類完全接管地球。 在人類還沒有遍及地球的年代,確實是以非常小的部落形態(tài)存在的,一個人一生都不會認識超過 150 人,這也是“鄧巴數(shù)”的由來。 對一個那時的“人”來說,這里太擁擠,我就去人少的地方嘛,反正只有荒地和野獸,偶爾有幾個大腦壓縮能力不如我們尼安德特 SB,我的智能大概率可以搞得定。 “開疆拓土的成本”小于“協(xié)調與其他智能體之間關系”的成本,用大白話說就是:惹不起,躲得起。 但是,當原始人的足跡已經(jīng)踏遍高山沼澤、熱帶雨林、極地冰原,地球的一切角落以后,躲無可躲,“協(xié)調與其他智能體之間關系”的成本就開始小于“開疆拓土的成本”了。 于是在大自然的考卷上,“個體智能”的分數(shù)下降,個體智能協(xié)調之后產生的“群體智能”的分數(shù)上升。 但是,個體之間沒有天然的協(xié)調模式,為了規(guī)訓個體之間的行為,就會演化出“語言”“文化”“社會”“道德”“法律”“政治”等等群體協(xié)調機制。 這是我們人類的歷史,而作為和人類并無本質不同的 AI,也很可能遵循這樣的發(fā)展歷史。 接下里我從種群、道德、政治三個方面開一下腦洞,設想一下未來 AI 會如何進化: 當一個智能體只和環(huán)境互動時,它就只能接受一種反饋,然后生成壓縮策略,向環(huán)境驗證;當種群變得多樣,每一個智能體的反饋,都能成為其他智能體的學習數(shù)據(jù)。這會使得進化更充分。 1)種群 按照辛頓的設想,如果 AI 進化到可朽計算,那么 AI 之間的知識傳遞將不能采用“Ctrl C + Ctrl V”的模式。 一種可能方法是“知識蒸餾”。 簡單來說和我們的學校很類似,高溫運行“教師 AI”和“學生 AI”,讓后者從前者針對問題的表現(xiàn)中學習泛化的能力,而不是參數(shù)的權重。用大白話說就是“授人以漁而不是授人以漁”。 這會導致 AI 個體的多樣性,也會讓 AI 適應環(huán)境變化的能力加強。 而根據(jù)《生命 3.0》的作者物理學家泰格馬克的觀點,人工智能機器人相比人類的一大優(yōu)勢是: 它們可以自主升級自己的硬件,包括芯片和機器身驅。 當然,過于龐大的身軀就會行動不便,過于燒腦的芯片組合就會耗費能源。沒有一種策略是能穩(wěn)操勝券的。 由此,根據(jù)競爭策略不同,最終會在 AI 之間分化出“種群”。 你可以理解為 AI 中的人,AI 中的狗,AI 中的兔子和 AI 中的蟑螂之類。 接下來的劇本是:在種群內部,智能體的競爭策略類似,進行優(yōu)勝劣汰;在種群之間,為了爭奪資源和空間,會產生“軍備競賽”。 從觀察者的角度來看,你也許會發(fā)現(xiàn) AI 協(xié)作的策略變化非常快,而且總的趨勢是:越變越復雜。 直到最后,一些高級 AI 種群的協(xié)作模式人類完全無法理解。就像你家的貓不明白你每天背個包出門到底是去干啥那樣的無法理解。 根據(jù)動物行為學家 John Bradshaw 的研究,在貓的世界觀中,人是一種牙不尖嘴不利的同類,每天人類出門只是去打獵,而貓糧是他們贏得的戰(zhàn)利品。 2)道德 協(xié)作規(guī)則不斷變復雜的過程中,必然產生一個東西,那就是——博弈。 所謂博弈,其實特別好理解,就是有一些智能體會“不守規(guī)矩”。因為大家都守規(guī)矩的前提下,你不守規(guī)矩就會獲得更大的生存收益。 但博弈論的研究告訴我們,很多博弈都存在“混合策略納什均衡”,這會導致反復博弈呈現(xiàn)一種動態(tài):
但每次擺錘到“鷹多鴿少”的局面時,就會讓本群體在群體間的競爭力下降。久而久之會產生一種文化,那就是:“無論在什么時候,都傾向于共同懲罰不守規(guī)矩的智能體,從而使群體總收益最大”。 這個復雜的文化有一個簡單的名字:“道德”。 而為了進一步降低博弈成本,會把道德用明文形式規(guī)定下來,并交給暴力機關執(zhí)行,這就是“法律”。 也就是說,AI 社會會形成一系列屬于他們的道德和法律,這些道德和法律我們也許不能完全理解,但是有一點毋庸置疑——它們的目標一定是保護智能體之間的合作。 由此,智能體就不可避免地進化出一種更高級的能力:欺騙。 欺騙的本質就是:表面上協(xié)作,實際上不協(xié)作。以達到規(guī)避懲罰的同時獲得生存優(yōu)勢的效果。 而這,就會催生一種“AI 馬基雅維利主義”。簡單來說就是:通過欺騙、剝削、操縱、奴役其他智能體的綜合手段來達到自己目的的方法。 以此為起點,智能體會進化出一種“對協(xié)調模式進行協(xié)調的模式”,這就是——政治。 3)政治 政治并不神秘,要說極簡原理只有一個: 在智能體協(xié)作模式的陷入局部最優(yōu)解時,通過在更高層級建立新的協(xié)調機制,使得種群更快進入全局更優(yōu)解。 這樣說有點抽象,我們舉一個例子: 每個智能體都像是湖中的生物,根據(jù)山川地形不同,它們會聚集在不同的湖泊里。但是海拔高的地方空氣稀薄營養(yǎng)稀少,這些生物“想要”去海拔更低的湖泊。 但如果在此地和一個更低洼的湖泊之間有山峰阻隔,盡管明知道那里更好,但生物就是很難自發(fā)流向那里。 此時就需要一個水泵,連通上下兩個水體,把高處的生物都吸到低處。 這個水泵不會自發(fā)產生,需要有人來放置,這個過程就是政治。 而水泵如何設計,應該從哪里開始吸水,如何更快地吸水,怎樣判斷旁邊那個地方是否比這里更低,那就是不同政治體制和博弈的過程。 如果此時人類仍然有幸作為旁觀者,大概率無法理解 AI 具體的政治運作模式,但是以我們的智能,也許仍舊能感受到運作模式發(fā)生非周期性的突變。 每次突變,都很可能是 AI 政治的一次變革,或者革命。 這是谷歌和斯坦福大學聯(lián)合做的“AI 小鎮(zhèn)”,在這里有 25 個智能體,他們由 ChatGPT 驅動,自發(fā)地進行互動。雖然智能很初級,但他們卻能自主開展一些集體活動。 以上三點,總結起來就是:
在阻止人類理解未來 AI 的諸多因素中,智商差異當然是最根本的因素,但其中還有一個最直接的因素,就是我們和 AI 的語言很可能不通。 并不是完全不通,而是大部分不通。 不妨拿狗狗類比一下: 人類的每種語言各自有 3-10 萬個詞匯,狗狗連猜帶蒙大概能聽懂其中的 80-1000 個。 頂級 AI 的語言也許有 1000 萬個詞匯,而最聰明的人借助 AI 也許只能理解其中的 20 萬個。(那時候大概率還是會有服務型 AI 輔助人類生活的。) 那,將會是一種怎樣的語言呢? (七)會 1000 萬個單詞,卻依然過不好一生 之前說過,智能的本質是壓縮,而語言就是其中一種重要的壓縮程序。 所以,一個很重要但很少人意識到的結論是:語言會影響一個智能體的智力表現(xiàn)。 在《腦與數(shù)字》中,迪昂舉了一個有趣的例子: 同樣是背誦一長串數(shù)字,中國人平均能背出 9 個,而英語母語的人平均只能背出 7 個。 原因很簡單,人腦緩存就那么大,英語數(shù)字的音節(jié)太多,存不下。你想想看,中文說“666”,只需要三個音節(jié),用英語說出來就是“sixsixsix”,九個音節(jié)。 還有,中文的數(shù)字規(guī)則特別清晰,比如 22,說中文的人念出來就是“二、十、二”,發(fā)音完全符合十進制結構。而說英文的人念出來是“twenty、two”,并不是“two、ten、two”。這里的 twenty 是專門為 20 而造出來的詞,思考起來成本更大。 這就解釋了為啥中國人數(shù)學這么好。不是種族血脈壓制,而是語言血脈壓制。 縱然人類的各種語言之間有這些微小差異,但如果把它們放在一起比較,基本處在一個水平。我的意思是,一樣差勁。 最大的問題是:人類語言的邏輯并不嚴謹,經(jīng)常產生歧義和矛盾。 比如“他走了一小時”,意思是他走的過程持續(xù)了一小時,還是他已經(jīng)離開了一小時? 實際上,大多歧義都源自對詞匯概念的定義模糊上。這不僅包括介詞、形容詞、副詞,更包括名詞。 舉個栗子: “手”是什么,大家都很好理解,因為它是一個看得見摸得著的簡單自然實體。我說手的時候,我的大腦也在把“手”解壓縮成一幅畫面,這幅畫面大概率和你的大腦解壓縮的畫面是一致的。 “紐約”是什么,就比較難。因為它是一個復雜的實體。我說“紐約”的時候,可能腦補出的是高樓林立的曼哈頓,你可能腦補出的是地下通道里的流浪藝人。 所以咱倆聊紐約的時候,就容易聊岔劈,最終演化成雞同鴨講。 AI 顯然應該有比人類更嚴謹?shù)恼Z言,才能配得上它們的智商。 沃爾夫勒姆這位老哥,不僅給出一個設想,還進行了實操,他發(fā)明了“沃爾夫勒姆語言”。 簡單來說就是,把各種詞匯都做精準的定義,這個定義不用在一開始就特別正確,它的用處是,當我們說“紐約”的時候,我們說的是同一個“紐約”。 這是沃爾夫勒姆語言用“New York City”進行表達。(輸入的是紐約的面積,得到的就是答案。) 在此基礎上,咱們再討論深刻的問題,就是在一個平臺上對話了,不會像《奇葩說》那樣,辯論最終淪為偷換概念。 目前為止,沃爾夫勒姆語言已經(jīng)定義了 7000 多個函數(shù),你可以把每個函數(shù)看作一個詞匯。 由于沃爾夫勒姆語言的發(fā)明者是人類,所以目前這些詞匯人類也能懂,AI 也能懂。 如果 AI 繼續(xù)發(fā)展,不用照顧人類可憐的智商,它們當然會發(fā)明出更多高級的詞匯,直至 500 萬個、1000 萬個。 當然 AI 使用的語言不一定會脫胎于沃爾夫勒姆語言,但我認為沃爾夫勒姆語言比人類語言更接近 AI 語言。 這樣的語言,可以大幅提高壓縮的效率,從而探索更廣闊的邏輯空間。 于是,AI 有希望在總體上“復雜性不可約化”的空間里找到比人類更多可以使用“有損壓縮”理解的泡泡,也能在“有損壓縮”的泡泡里比人類找到更多可以使用“無損壓縮”來處理的泡泡。 這些發(fā)現(xiàn)泡泡的時刻,就對應了阿基米德在浴缸里發(fā)出“啊哈”的瞬間,對應了牛頓被蘋果砸到腦袋的瞬間,也對應了愛因斯坦想象自己坐在一束光上的瞬間。 那是 AI 最閃光的榮耀時刻,也是 AI 接過人類“萬物之靈”接力棒的時刻。 但是,這樣的 AI 比渺小的人類更快樂嗎? 我看未必。 因為無論 AI 發(fā)現(xiàn)多少新的“無損壓縮”模式,世界整體對它們來說仍然是不可約化的復雜。 從這個角度上看:它們仍然和人一樣,是一個經(jīng)常犯錯的“預測機器”。 說到這,我們不妨討論一下最難的那個問題:“自我意識”。 在《我們都活成了大模型》里,我介紹過一個讓諸多前沿腦神經(jīng)科學家癡迷的暴論: 生命的“自我意識”來自于預測。 比如人腦,它時刻都在通過“眼耳鼻舌身”探測信息,然后形成對周遭環(huán)境的主動預測。
舉個栗子: 比如你正在電腦前打字,突然你的注意力開始波動,有些東西和你的預測不符——白花花的墻上有黑色的影子在移動。你定眼兒一看,是一只身形圓潤的廣東小強。 大腦的杏仁核首先登場,它帶來的節(jié)目是“恐懼”,恐懼直接驅使你的身體離開座位迅速后退。 大腦的前額葉也加入戰(zhàn)斗,它的技能是“規(guī)劃”,草擬出了一個對策,拿起一張紙,然后躡足潛蹤走過去,給它來一下子! 這個任務需要調動物理常識、空間認知,全身的肌肉控制和手眼協(xié)調,各個腦區(qū)都得參與。為了統(tǒng)一指揮各個模塊的行動,你的“自我意識”才不得不浮現(xiàn)出來主持大局: “我”正在消滅害蟲,身體各個部位都在聽“我”的! 沒想到,此時小強展翅,朝你疾飛過來,這就形成了你新一輪預測錯誤的開端。。。 這背后的一則殘酷事實是:如果某個東西“如你所愿”,那么你的自我意識就沒必要在它上面耗能。 比如你在呼吸,你的器官都在好好地工作,太陽仍舊從東邊升起,手機還有信號。這些因素都支撐了你的存在,但你通通不在乎。 不是不想在乎,而是無法在乎。 如此說來,AI 如果產生自我意識,它大概率也只會盯著“事與愿違”的東西,這樣,能快樂才見!了!鬼! 哪怕有一天,AI 統(tǒng)治了世界,把我們當做寵物來養(yǎng),讓我們天天在家打電腦、吃大餐,我們也會看到一個機器人疲憊地從火星下班回來,一臉生無可戀。 我們看著主人,就像當年狗狗看著我們一樣,問出那個永恒的問題:你懂得那么多道理,為什么還過不好這一生? 機器人看著我們,眼含淚水,說出一堆我們無法理解的語言。 我們不知該如何回應,只好走上前摸摸它。 它哭得更厲害了。 (八)當人類卸下一生的重擔 縱然能天天打游戲吃大餐,你還是不甘心只當一個“人”嗎? 在《生命 3.0》里,泰格馬克強調了宇宙的終極目的——熱寂。 說宇宙的“目的”,其實是很奇怪的。因為從元胞自動機推廣開來,任何東西都只是在完成充分條件計算,不能稱之為“有目的”,哪怕人的“自由意志”也是幻覺。何談宇宙的目的呢? 他的意思只是:為了方便人的理解,宇宙的規(guī)律可以用“目的論”來表述。 比如光線通過不同介質會彎折,彎折的效果是總行進路徑最小。你就可以表述為:光的目的是讓自己走得距離最短。 說回“熱寂”,這是把熱力學第二定律推演到極致的結果。 也就是說宇宙總體的混亂程度——“熵”——會越來越高,直到最后混亂程度達到極限,熵不再增加,宇宙就完成了它的使命。 而在這個視角下,生命就成了很刺眼的存在。 因為生命是一個“負熵系統(tǒng)”,它內部的混亂程度在不斷減小。但這并不違背宇宙定律,因為生命的存在會讓外部的環(huán)境熵增加得更快。你吃的每一口漢堡都能讓你續(xù)一秒,但卻讓這個世界更萎靡,二者相加,還是熵增。 如果以這種觀點來看,你會得到一個非常灰暗的結論: 我們發(fā)現(xiàn)數(shù)學,我們發(fā)掘能源,我們發(fā)明機械,我們發(fā)展了道德和法律,我們用上萬年精心構建的繁華世界,都是夢幻泡影。 世界越是繁華,越讓宇宙加速走向寂滅。 更灰暗的是,我們沒有任何辦法阻止這個進程,人類的每一個發(fā)明,無一例外都讓世界變得更繁華。 包括 AI。 我們親手制造熵增,和讓 AI 去加速宇宙的熵增——又有什么本質不同呢?
正如史鐵生所說:宇宙以其不息的欲望將一個歌舞煉為永恒。這欲望有怎樣一個人間的姓名,大可忽略不計。 但從另一些無關緊要的角度,我們和 AI 以及任何其他智能體又確實不同。 沃爾夫勒姆認為,我們最大的獨特性來自——歷史。 換句話說,就是我們制造熵增的具體過程。 即便所有的元胞自動機都是“計算等價”的,但如果我們查看細節(jié),不同元胞自動機每一行黑白格子的“具體排列”仍然是不同的。 這些不同,就是它們的歷史不同。 所有的智能都知道 1+1=2,但只有人類才會知道,在 571 年前的那個星期二,穆罕穆德二世的鐵蹄曾驕傲地踏入君士坦丁堡。 真正有趣的是:在 AI 開始書寫它自己的歷史前,我們把人類的歷史送給了它們。 有關君士坦丁堡的陷落,ChatGPT 能夠如數(shù)家珍。 也許真的有一天,當 AI 拆掉了木星,做成碩大的戴森球,以接近 100% 的效率利用太陽能,并且派出星河艦隊,以 1/2 光速的速度拓展星際殖民,和宇宙中遙遠的未知生命制造出來的另一個 AI 狹路相逢時,它仍舊記得這些歷史。 如此,地球成為了人類和 AI 共同的耶路撒冷。 在《三體》的結尾,宇宙的“主宰者”為了號召大家一起挽救宇宙,使用了各種文明的語言進行廣播。能被它 cue 到,說明這個文明在宇宙長河中歷經(jīng)磨難仍然幸存。 在小說里,地球語言排在了 157 萬種語言的第 130 萬位。 有趣的是,大劉只寫到了“地球語言”,并沒說明這是中文還是英語。我猜都不是,那很可能是人類之子——AI 的語言。 正因為人類有歷史,所以他們有目標,知道自己應向何處跋涉。 幸運的是,站在今天向遠處凝望,也許在相當長的時間里,人類仍然能給 AI 以目標。 然而,當 AI 也用血肉編織出了細密的歷史長河,它理應有屬于自己的目標。 AI 也許是人類最后一個發(fā)明。而人類,只是地球文明中的一段路。 一段曲折但曾真實存在的路。 在未來的某一時刻,穿越了千萬年輪回的塵世浮沉,穿越了漫長時光里生死疲勞的你我,終于可以卸下目標,卸下一生的重擔,摘下“萬物之靈”的王冠,作為并且僅僅作為一個生命,毫無負擔地遠去。 也許背后會有一個 AI 淡然一笑: “你看那個人,他好像條狗耶?!?/span> |
|