杰弗里·辛頓 (Geoffrey Hinton) 被認(rèn)為是人工智能教父,也是今年的諾貝爾物理學(xué)獎(jiǎng)獲得者。他從上世紀(jì)80年代開始就專注于神經(jīng)網(wǎng)絡(luò)研究。哥倫比亞廣播公司周六早間在多倫多矢量研究所采訪了他。下面是我摘取了一些對(duì)我認(rèn)為有價(jià)值的觀點(diǎn)和總結(jié)。
主持人的第一個(gè)問題是Hinton 對(duì) ChatGPT 出現(xiàn)是否感到驚訝? Geoffrey Hinton說, “對(duì) ChatGPT 的出現(xiàn)本身并未感到特別驚訝,但對(duì)公眾的巨大反應(yīng)卻有些意外。” 作為人工智能教父,Geoffrey Hinton 對(duì)AI的發(fā)展有著深刻的洞察。他見證了從神經(jīng)網(wǎng)絡(luò)的冷門研究到今天AI大模型的廣泛應(yīng)用,他和他的學(xué)生一直相信隨著算力的提高,參數(shù)規(guī)模的擴(kuò)大,AI一定會(huì)涌現(xiàn)出超越人類的分析能力和推理能力。
AI 對(duì)與人腦:它的優(yōu)勢(shì)與局限 Hinton 指出,AI相較于人腦有以下顯著優(yōu)勢(shì): AI “能力” 可以保存和共享:我們知道AI的神經(jīng)網(wǎng)絡(luò)確實(shí)是模仿人腦的神經(jīng)神人腦的神經(jīng)網(wǎng)絡(luò),也是模仿人腦的神經(jīng)系統(tǒng),神經(jīng)元之間會(huì)有鏈接,會(huì)有權(quán)重。這些神經(jīng)元的結(jié)構(gòu)與權(quán)重其實(shí)就是意味著分析能力和學(xué)習(xí)能力以及推理能力。當(dāng)AI與我們的人腦有不一樣的地方是這些,對(duì)我們這些生物質(zhì)能包括我們?nèi)祟愃劳鲋筮@些權(quán)重就會(huì)消失了。我們不能復(fù)制出一個(gè)愛因斯坦。但對(duì)于AI來說就不一樣了。舉個(gè)簡(jiǎn)單的例子。比如自動(dòng)駕駛領(lǐng)域,如果訓(xùn)練出一個(gè)好司機(jī)之后,所有的自動(dòng)駕駛汽車都可以供用這個(gè)好時(shí)機(jī)。
但是目前AI也有明顯局限,比如以現(xiàn)在的算法,AI訓(xùn)練、學(xué)習(xí)與推理的能耗還太高,但隨著算法的改進(jìn),以及算力的提高,未來AI在各個(gè)領(lǐng)域超過人類是一個(gè)必然的。
未來AI 是否會(huì)有意識(shí)? 對(duì)于這個(gè)問題,Hinton 強(qiáng)調(diào)了一個(gè)關(guān)鍵點(diǎn):“定義決定答案”。他認(rèn)為,許多人聲稱AI沒有意識(shí),但又無法清楚地定義“意識(shí)”究竟是什么。在他看來,AI的行為可能呈現(xiàn)出類似“意識(shí)”的特征,比如自主學(xué)習(xí)和目標(biāo)設(shè)定,甚至可能導(dǎo)致我們對(duì)其產(chǎn)生“擬人化”的認(rèn)知。雖然AI的“意識(shí)”本質(zhì)尚未明確,但其行為方式可能足以對(duì)人類社會(huì)產(chǎn)生重大影響。
對(duì)于AGI,Hinton認(rèn)為可能比預(yù)想更早實(shí)現(xiàn)的通用智能 Hinton 起初預(yù)測(cè),通用人工智能的實(shí)現(xiàn)可能需要20至50年,但他現(xiàn)在改變了看法,ren,他認(rèn)為會(huì)更早實(shí)現(xiàn),但未給出具體時(shí)間。因?yàn)閿?shù)據(jù)規(guī)模、計(jì)算能力和技術(shù)方法的不斷進(jìn)步,像大語言模型(ChatGPT)的成功展示了模型的潛力,這些技術(shù)基礎(chǔ)可能是AGI出現(xiàn)的前奏。 盡管AGI帶來了巨大潛力,但Hinton 對(duì)其威脅表示擔(dān)憂。他提到AGI的**“對(duì)齊問題”**,即如何確保AGI的目標(biāo)和行為始終符合人類的價(jià)值觀。一旦AGI的自主目標(biāo)與人類利益沖突,可能會(huì)對(duì)社會(huì)和人類本身構(gòu)成威脅。
那AI 對(duì)人類的威脅有哪些呢 Hinton 對(duì)自動(dòng)化武器(如自主無人機(jī)和“自愈地雷”)的研發(fā)深感擔(dān)憂。他指出,這些武器可能被國(guó)家或恐怖組織用于大規(guī)模殺傷,并可能在失控情況下造成毀滅性后果。AI技術(shù)和資源的集中可能讓少數(shù)科技公司或國(guó)家獲得前所未有的力量,社會(huì)一定會(huì)更加不平等。同時(shí),AI生成內(nèi)容(如深度偽造視頻或虛假信息)的普及可能引發(fā)公眾對(duì)真相的誤解。但Hinton認(rèn)為AI對(duì)人類的終極威脅是,AGI具有自我凈化能力,人類失去了對(duì)其控制,同時(shí)其行為又超越了我們的價(jià)值觀。AGI“完全消滅人類”的可能性雖然微小,但并非不可想象。
未來展望 Hinton 的觀點(diǎn)提醒我們,AI技術(shù)不僅是技術(shù)問題,更是倫理、社會(huì)和政治的綜合考驗(yàn)。面對(duì)AI和AGI帶來的挑戰(zhàn),全球必須加強(qiáng)合作。他提議建立類似“日內(nèi)瓦公約”的國(guó)際協(xié)議,以限制AI在軍事等領(lǐng)域的濫用。同時(shí),他認(rèn)為社會(huì)需要對(duì)AI的治理方式展開廣泛討論,確保技術(shù)發(fā)展與人類價(jià)值觀的協(xié)調(diào)統(tǒng)一。
|