人類真的需要一個有意識的“強人工智能”嗎?| 圖源:pixabay.com
什么是 “人的智能” ( human intelligence)?“人工智能” 與 “人腦智能” 有何區(qū)別與聯(lián)系? 近期《國家科學(xué)評論》(National Science Review, NSR)舉辦的論壇中,“人工智能” 與 “人腦智能” 兩個領(lǐng)域有關(guān)的7位專家,圍繞上述問題的答案展開了討論。深度神經(jīng)網(wǎng)絡(luò)和人類神經(jīng)系統(tǒng)看起來相似,但人類真的需要一個有意識的 “強人工智能” 嗎?科學(xué)家們的答案似乎難得的一致,而人工智能已然帶來的倫理問題無法忽視。“人工智能到底是魔鬼還是天使,取決于使用它的人是魔鬼還是天使。”對于科研人員而言,讓自己制造出來的工具是可控的、向善的也許是從源頭上解決問題的關(guān)鍵。專家: 傅小蘭 中科院心理所 顧勇 中科院神經(jīng)所 何生 中科院生物物理所 劉卓軍 中科院數(shù)學(xué)與系統(tǒng)科學(xué)研究院 譚鐵牛 中科院自動化所 周志華 南京大學(xué) 林惠民(主持)中科院軟件所 林惠民:首先請大家談一談:“人的智能” ( human intelligence)應(yīng)該如何定義、如何理解?何生:在心理學(xué)領(lǐng)域,“人的智能” 是一個歷史非常悠久的研究課題,也有過各種各樣的爭議。如果用一個不是特別嚴謹?shù)亩x來說,智能應(yīng)該是認知能力和解決問題的能力。在歷史上,有些研究者試圖找到一個單一的指標(biāo),來衡量智能。比如 Charles Spearman 在1904年提出了 “二因素說”,認為智能由“一般因素”(g factor)和 “特殊因素”(s factor)組成。另外一些研究者會對智能進行分類,比如 Robert Sternberg 在1985年左右提出了智能的 “三元論”,把智能劃分為 analytical intelligence(分析問題的能力),creative intelligence(創(chuàng)造力) 和 practical intelligence(實際解決問題的能力)。我認為比較粗略地說,智能可以有一般性的定義,但是在具體的問題中,也可以有更專門的定義。傅小蘭:我認為簡單來講,智能最核心的定義應(yīng)該包括兩個部分:也就是知識,以及獲取和運用知識來解決問題的能力。這兩部分應(yīng)該是各種認知活動都不可或缺的。顧勇:我也認為智能的主要體現(xiàn)是從獲取的知識中學(xué)習(xí)其規(guī)律和通用規(guī)則,即運用知識的能力。在腦科學(xué)領(lǐng)域,有一個很好的例子可以說明這個概念,即 Edward Tolman 在1948年提出的 “認知地圖”。這種具有知識架構(gòu)的、非自我中心的語義記憶能夠指導(dǎo)動物和人在復(fù)雜多變的場景中,比如某條路徑的通透性發(fā)生了改變時,去靈活地改變策略、重新規(guī)劃路徑,或者根據(jù)學(xué)習(xí)到的規(guī)則,更快地探索新的空間環(huán)境。隨著研究的深入,人們發(fā)現(xiàn)認知地圖的概念不只適用于空間導(dǎo)航,而且可以拓展為用于抽象思維的空間,即心理地圖。今年在Cell上,來自加州伯克利大學(xué)的科學(xué)家發(fā)表的工作表明,在獼猴的大腦中,形成物理空間和抽象價值空間的認知地圖分享了同樣的腦區(qū)(海馬體)和神經(jīng)基礎(chǔ)。結(jié)合其它實驗證據(jù),目前看來,海馬體系統(tǒng)和相關(guān)腦區(qū),比如前額葉,可以對物理空間和抽象空間的知識進行歸納總結(jié),抽提出規(guī)律和共性,進而允許遷移、泛化、并解決其它問題。因此,學(xué)習(xí)怎么學(xué)習(xí)(learning to learn),即所謂的元學(xué)習(xí)(meta learning),應(yīng)該是智能,尤其是通用智能,即快速高效學(xué)習(xí)多任務(wù)的關(guān)鍵,而不只僅僅是知識本身。我想這和傅老師說的“獲取和運用知識來解決問題的能力”的觀點是一致的。林惠民:假定我們能夠制造一種設(shè)備,可以掃描一個人的大腦,把所有神經(jīng)元以及它們相互連接的方式和狀態(tài)都讀出來,是否就可以從這些數(shù)據(jù)解讀出這個人腦子里存儲了哪些知識,以及他能夠運用這些知識去解決什么樣的問題?顧勇:我想理論上是可能的,記憶主要通過赫伯突觸學(xué)習(xí)定律形成,反映在神經(jīng)元與神經(jīng)元之間形成的突觸聯(lián)系中,因此可以把所有這些突觸聯(lián)系 “掃描” 下來。但是在技術(shù)上,我認為不太可能實現(xiàn)。因為人腦中有接近1000億個神經(jīng)元,每個神經(jīng)元又可以發(fā)出1000個突觸,去跟其他的神經(jīng)元發(fā)生聯(lián)系,所以知識和記憶的表征,其組合形式幾乎是無限的。我認為至少在50年,甚至100年之內(nèi),都不太可能做到。何生:我的觀點不太一樣,我認為不只是技術(shù)上不可行,在理論上可能也不成立。人腦很復(fù)雜,但是即便是對于比較簡單的腦,比如斑馬魚的腦,即便是我們能夠把它大腦中每一個神經(jīng)元、每一個突觸連接都識別出來,從理論上,也可能無法只是從這些結(jié)構(gòu)中破解它所擁有的記憶、掌握的知識。林惠民:接下來的問題是,計算機有沒有智能?計算機的智能與人的智能有什么區(qū)別和聯(lián)系?我先談一談我的觀點。計算機是做計算的機器,而計算顯然是人的智能的一部分,因此,計算機是有智能的。但是計算機的智能只是機械的智能,它只能按照人的指令進行精密、快速的計算,而不具備創(chuàng)造力和抽象能力。即便是取得了巨大成功的人工智能程序,像 Alpha Go 在圍棋領(lǐng)域戰(zhàn)勝了李世石、柯潔等人類頂級棋手,但其實它也只是一個程序,是Deepmind團隊的成員發(fā)揮創(chuàng)造性寫出來的程序,所以本質(zhì)上講,它還是人類智力活動的一個結(jié)果。讓計算機根據(jù)給定的任意需求自動生成程序,這個問題已經(jīng)被證明是不可能的。設(shè)計算法、研制軟件需要創(chuàng)造性的智能,只能由人完成;研制成的軟件代碼可以由計算機機械地執(zhí)行。軟件越多,計算機可以替我們做的事情就越多,但計算機不能自主地增加或提升自己的功能。譚鐵牛:如果從1956年的達特茅斯會議算起,人工智能的發(fā)展已經(jīng)有65年了。近些年人工智能非常火熱,許多國家都把發(fā)展人工智能作為國家戰(zhàn)略。但是我們要認識到,人工智能近年來的快速發(fā)展,主要是在應(yīng)用層面上,特別是模式識別算法(比如人臉識別)在諸多應(yīng)用領(lǐng)域獲得的巨大成功,而在理論上,其實并沒有特別大的根本性突破。而且,有些人,特別是不真正從事人工智能研究的人,對于人工智能的態(tài)度可能有些過于樂觀了。至于計算機或機器是否具有智能,我覺得要看我們怎么去定義智能。如果從行為和效果上看,你可以說它們具有智能,但是從智能的本質(zhì)來看,它們其實并不知道自己在干什么,似乎又可以說它不具有智能。周志華:作為一個從計算機學(xué)科出發(fā)來研究人工智能的研究者,我認為機器毫無疑問可以展現(xiàn)出許多智能行為,包括推理、下圍棋等等,但很難判斷機器是否真能擁有我們所謂的 “智能”,實際上我們搞計算機的人并不是特別關(guān)心,因為我們的出發(fā)點,至少我個人的出發(fā)點,只是希望制造出一些能幫助人類的智能工具。我經(jīng)常舉一個類比,我們看到鳥在天上飛,受它的啟發(fā)造出來飛機幫助人類飛起來了,但其實飛機的飛行機理和鳥的飛行機理非常不一樣,飛機并不必須像鳥那樣飛。劉卓軍:麻省理工學(xué)院的 Patrick Winston 在1992年的《人工智能》教材中給出過一個人工智能的定義:人工智能是一種通過計算來實現(xiàn)認知、推理和行動的研究。(Artificial Intelligence is the study of the computation that make it possible to perceive, reason, and act.)我比較贊同這樣的理解,人工智能是參考人腦的功能和運行機制,借助數(shù)學(xué)和計算機科學(xué)的模型與算法,來實現(xiàn)多種智能行為的一種工具。林惠民:在 J. McCarthy 主筆的達特茅斯夏季人工智能研討會倡議書的第一段,有一句著名的論述:“這項研究基于如下猜測(conjecture):學(xué)習(xí)以及智能的其它特征的任何方面,在原則上都可以被如此精確地描述出來以至于我們可以造一部機器來模擬它?!?nbsp;我認為這個猜測是不成立的,人的創(chuàng)造性智能活動不是可以 “被如此精確地描述出來以至于我們可以造一部機器來模擬它” 的;能夠被 “精確地描述出來” 的只是計算機模擬的 “機械” 的智能活動。傅小蘭:我同意各位的觀點,我認為計算機可以有智能,但是不一定是全面的、跟人一樣的智能。從知識的層面來說,目前的計算機或者人工智能能夠存儲和運用的知識還比較有限,無法像人類一樣掌握人際交往、社會和情感方面的知識。而在獲取和運用知識解決問題的能力方面,又有一個本質(zhì)的差別:人類去獲取和運用知識,是一種為了活下去而必須去做的生存需要;但是計算機沒有這方面的需要,它只是在運行指令。周志華:從計算機學(xué)科的角度出發(fā),做人工智能并不是為了“人造智能”、造出和人類一樣的生命體,而是為了做出能夠由人駕馭、輔助人類的智能工具。從這個角度出發(fā),我們似乎沒有必要去制造有自我意識、未必服從甚至可能會在地球上取代人類的生命體。譚鐵牛:我同意這個觀點。包括人工智能在內(nèi)的科學(xué)技術(shù),其發(fā)展目標(biāo)都是為了拓展人類的能力(認識自然與改造自然的能力),而不是用來最終完全取代人?,F(xiàn)在很多人都在提 “強人工智能” 或者 “通用人工智能”,希望一個人工智能系統(tǒng)能夠完成多種任務(wù)。但是如果說通用人工智能的目標(biāo)是創(chuàng)造出能夠?qū)崿F(xiàn)人類全部智能的智能體,我認為這既不可能又沒有必要。我們不應(yīng)該把實現(xiàn)這種通用人工智能作為推動人工智能發(fā)展的一個重要目標(biāo)去追求。我們完全可以用不同的人工智能算法去實現(xiàn)不同的目的,輔助我們?nèi)ネ瓿筛黜棽煌墓ぷ鳌?/span>傅小蘭:但是在某些情況下,如果我們希望研發(fā)出來的智能體能夠融入人類社會,以社會一員的身份來與人類互動、合作,我們似乎又需要它們能有 “自我意識”,能夠識別出人類的情緒,并做出適合場景的、帶有情緒性的表達。如果智能體做不到這些,也就無法實現(xiàn)人機和諧共處的場景。周志華:在人工智能領(lǐng)域中,有一個分支叫做 “情感計算”。我們可以通過算法,讓人工智能體在與人類交互的過程中,讓人類覺得它似乎是有情緒的。但這實際上是一種“表現(xiàn)出情緒”的行為,而不好說它本身真的具有了我們所謂的情緒。林惠民:而且我認為從技術(shù)的層面看,計算機能做的所有事情歸根到底都是由電路實現(xiàn)的,它可以機械地執(zhí)行人刻意編寫的程序,使得與它交流的人覺得它有情緒,但這與它真正具有意識和情緒是兩回事。何生:到目前為止,我們對 “意識” 還沒有一個特別好的定義。在這樣的前提下,來討論機器要不要有意識、能不能有意識,就很困難。所以我認為,我們或許應(yīng)該首先去研究,人和動物的意識到底有什么用?意識只是大腦活動的一個副產(chǎn)物,還是人類認知活動的一個重要組成部分?有了意識之后,人類的認知活動可以在哪些方面變得更加豐富和高效?如果我們能夠搞清楚這個問題,知道意識對認知過程中的A、B、C很重要,但是D不依賴意識,那么我們就對意識功能的理解進了一大步。這樣的話,我們就可以在人工智能中去實現(xiàn)類似意識支持下的ABC,讓人工智能獲得 “有意識” 的優(yōu)勢。顧勇:我同意這個觀點,意識目前還缺乏很好的定義,可以包括很多成分,我想其中某些成分的意識可能是人工智能需要具備的。比如說在人類社會中,人類意識的一個重要體現(xiàn)是能夠區(qū)分自身的想法(自我意識)和別人的想法(他我意識),才能做出合適的社交行為,這就是所謂的心智理論(Theory of mind)。而在自動駕駛的過程中,人工智能可能也需要有這樣的能力。在未來自動駕駛成熟的情況下,一輛自動駕駛的汽車除了要 “意識” 到自己的行駛狀態(tài),也需要了解其他車輛的運行意圖,才能做出合理的調(diào)度。這一點到目前為止似乎還沒有實現(xiàn)。還有一種意識成分是對自身肢體的意識,這是機械臂等智能機器可能需要具備的。哥倫比亞大學(xué)近期有一項研究工作,他們構(gòu)建了一個有100個關(guān)節(jié)點的機械臂,讓它在各個關(guān)節(jié)組合下隨機運動,機械臂在反復(fù)隨機揮舞的過程中,通過自我學(xué)習(xí)形成了內(nèi)在模型,這與人類幼兒在發(fā)育中逐漸形成對自身肢體的意識感的過程相似。然后,在沒有正誤反饋信號的情況下,研究者讓機械臂去完成一個把小球放到指定位置的任務(wù),結(jié)果即使在開環(huán)系統(tǒng)中,機械臂仍然可以達到較高的正確率。如果人為改變機械臂中的部分肢體,用來模擬人類的肢體損傷,機械臂也可以通過自我學(xué)習(xí)修改新的內(nèi)在模型,并完成任務(wù)。林惠民:剛才譚老師講到,人工智能這些年最大的成功是深度學(xué)習(xí),是在模式識別領(lǐng)域的應(yīng)用。機器學(xué)習(xí)是利用巨大的標(biāo)注數(shù)據(jù)集進行訓(xùn)練、生成分類器的方式來實現(xiàn)識別的。人也是通過類似的方式來進行識別的嗎?何生:人工智能中深度神經(jīng)網(wǎng)絡(luò)的架構(gòu)與靈長類視覺皮層中物體識別的架構(gòu)確實有一些相似之處。它們都是分層的結(jié)構(gòu),但是也有很多不一樣的地方。比如人類的視覺識別過程中反饋信號占比很大,但是神經(jīng)網(wǎng)絡(luò)還基本依賴前饋信號。另外人腦的識別過程中存在平行通路,由幾個通路模塊化地去做不同的加工,這可能可以避免之后學(xué)習(xí)的內(nèi)容對此前學(xué)習(xí)的內(nèi)容的干擾,也可能在人工智能中有所應(yīng)用。周志華:剛才何老師提到多層結(jié)構(gòu),這確實是深度神經(jīng)網(wǎng)絡(luò)和人類神經(jīng)系統(tǒng)看起來相似的一個地方,但事實上這種多層結(jié)構(gòu)在神經(jīng)網(wǎng)絡(luò)中早就用到了。直到2005年之前,我們都不知道怎么才能訓(xùn)練5層以上的神經(jīng)網(wǎng)絡(luò),因為在層數(shù)增加之后會遇到梯度消失問題。深度學(xué)習(xí)的突破始于一個計算上的技巧,就是我們每次只做一層,然后把很多個一層拼在一起全局微調(diào)優(yōu)化來實現(xiàn)很多層。顧勇:在 “識別” 問題之外,人腦和人工智能系統(tǒng)在空間導(dǎo)航、自動駕駛方面也存在很多的相似之處。我實驗室的研究方向是空間感知中的多感覺信息整合,就是研究相關(guān)的前庭和視覺信號是怎樣整合在一起,幫助人和動物實現(xiàn)空間導(dǎo)航的,目前的發(fā)現(xiàn)是,多種信號的整合大體上符合貝葉斯最優(yōu)化整合的理論框架。而自動駕駛也需要這方面的能力,目前的自動駕駛整合衛(wèi)星定位信息、慣性導(dǎo)航信息、動態(tài)攝像系統(tǒng)信息、高清攝像頭信息、激光或者毫米波雷達信息等多種模態(tài)的信息,才能在復(fù)雜多變的場景下做出很好的判斷。因此多模態(tài)信息融合在工程上的應(yīng)用和神經(jīng)科學(xué)原理是類似的。腦科學(xué)對人工智能的啟發(fā)方面,還有一個很好的例子是2014年諾貝爾獎得主Moser夫婦于2005年在大鼠內(nèi)嗅皮層發(fā)現(xiàn)的網(wǎng)格細胞。網(wǎng)格細胞自被發(fā)現(xiàn)以來,就引起了計算和智能領(lǐng)域的極大關(guān)注。包括2018年DeepMind有一項發(fā)表在Nature 的工作等,使得人們發(fā)現(xiàn)人腦或生物腦在空間導(dǎo)航方面的運行機制是一個高效靈活的系統(tǒng),可以被借鑒用來幫助設(shè)計和實現(xiàn)更加泛化、靈活的人工智能。林惠民:人工神經(jīng)網(wǎng)絡(luò)是上世紀40年代初提出來的。近幾十年來,對人類神經(jīng)系統(tǒng)的研究取得了巨大的進展。目前看來,人工神經(jīng)網(wǎng)絡(luò)和人類神經(jīng)系統(tǒng)的相似性到底有多高? 何生:我覺得二者之間的差別還是很大的,差異性要大于相似性。顧勇:我非常同意。和神經(jīng)系統(tǒng)相比,人工網(wǎng)絡(luò)目前還是一個過于簡化的模型。有人說我們?nèi)四X的功能可能只開發(fā)了10%,我認為現(xiàn)在的神經(jīng)網(wǎng)絡(luò)對人腦的模擬可能也只有10%。因此從神經(jīng)科學(xué)的角度看,我對人工智能的發(fā)展是非常樂觀的,因為在借鑒腦科學(xué)方面,它還有非常大的潛力和發(fā)展空間。林惠民:人工智能領(lǐng)域的研究者有沒有嘗試去模仿、利用這些復(fù)雜的人腦結(jié)構(gòu)和功能?周志華:人工智能的研究者很希望能從神經(jīng)科學(xué)借鑒一些東西,也有成功的例子,比如1943年提出的MP神經(jīng)元模型,就是借鑒神經(jīng)細胞的工作模式,直到今天,這個模型還是幾乎所有深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)。但是這種直接的模仿往往非常困難、很難成功。比如從上世紀60年代開始,人們就嘗試借鑒 “脈沖發(fā)放” 的神經(jīng)元機制,不僅考慮電位的總量還考慮觸發(fā)時間,但是經(jīng)過半個世紀的探索,在算法上的成功仍非常有限,仍需繼續(xù)努力。從發(fā)展情況來看,人工智能研究者從腦科學(xué)、神經(jīng)科學(xué)獲得的最重要收獲是方向性的借鑒,啟發(fā)我們可以去做哪些事情。但是具體如何操作才能做到這些事,我們通常還是要從數(shù)學(xué)和工程學(xué)上尋找答案,而不是直接模仿人腦的工作方式。林惠民:剛剛大家講了一些腦科學(xué)對于人工智能技術(shù)的啟發(fā),那么反過來,人工智能對于腦科學(xué)有什么幫助和貢獻嗎?顧勇:我覺得人工智能至少可以從兩個方面對腦科學(xué)提供幫助。首先,人工智能為腦科學(xué)以及醫(yī)學(xué)提供了一種很好的工具,比如在我們識別動物的行為表現(xiàn),研究大腦介觀神經(jīng)連接圖譜,醫(yī)學(xué)識別影像學(xué)掃描圖片等過程中,往往涉及到海量的數(shù)據(jù),這時候人工智能就可以非常高效、準確地進行識別分類,節(jié)約人力物力,幫助我們來完成這些工作。其次還有一個方面是人工智能可以幫助我們進一步理解人腦的工作原理。我一直認為,人類的智能只是在長期的進化過程中,在特定的環(huán)境下因適者生存所產(chǎn)生的一種智慧形式,但并不一定是唯一的一種形式。通過對人工智能的不斷研究,并且將人工智能與人的神經(jīng)機制進行對比,我們就可能會看到,還可能存在哪些與人腦不同的智能的形式與機制。比如Alpha Go的第二代 AlphaGo Zero,通過強化學(xué)習(xí),自己和自己下棋,“悟” 出了一些人類從沒想到過的招數(shù),結(jié)果不只戰(zhàn)勝了人類頂級棋手,也戰(zhàn)勝了依賴于人類棋譜作為訓(xùn)練集的第一代AlphaGo。因此我覺得這種人工智能和人腦智能的不同就已經(jīng)是一種驚喜,如果進一步分析這些不同,也可以幫助我們更好地理解人類的大腦,思考它為什么會是現(xiàn)在這個樣子,是否還有優(yōu)化的空間。林惠民:關(guān)于AlphaGo Zero和圍棋我插一句。圍棋棋盤有361個格點,所有可能的格局達3361之多,世界最快的計算機也無法在可期待的時間內(nèi)窮盡。但是判別黑白雙方誰勝誰負卻只需要掃描361個格點,用辦公室的臺式機一眨眼功夫就可以完成。下棋程序可以對黑勝和白勝兩種情況分別記錄下所需要學(xué)習(xí)的策略,一盤棋結(jié)束判別勝負后保留從勝者學(xué)習(xí)的策略,扔掉負者的策略。因此可以不依賴人類棋譜,僅從自己跟自己下棋中學(xué)習(xí)。但這種方法能適用的場景非常少。何生:除此之外,我們還可以把神經(jīng)網(wǎng)絡(luò)當(dāng)作是一個模擬和研究神經(jīng)系統(tǒng)的沙盤。因為和動物實驗相比,它的運行成本比較低,我們可以在它上面去研究不同的輸入會產(chǎn)生哪些不同的過程和結(jié)果,從而幫助我們回答一些神經(jīng)科學(xué)的問題。林惠民:最后我們來討論一下:人工智能研究可能會帶來哪些社會和倫理問題?譚鐵牛:這也是一個討論了很久的話題了,現(xiàn)在比較急迫的一個問題就是所謂的深度偽造(Deepfake),或者說自動生成。通過人工智能技術(shù),可以非常逼真地生成視覺、語音、文本等各種內(nèi)容,如果管控不當(dāng),很可能會危害公共安全,甚至是國家安全。此外還有很多社會層面的問題,比如人工智能可能帶來的隱私問題、就業(yè)問題,還有公平性的問題,如何讓各個國家、地區(qū)、組織和個人都能均等地獲得人工智能帶來的機會,而不會產(chǎn)生 “智能的鴻溝”。當(dāng)然從技術(shù)上,人們也在研究如何來防止這些問題的發(fā)生。比如我們也在研究如何鑒別深度偽造,我們也可以對收集到的諸如生物特征之類的隱私信息進行加密和變換之后再使用,從而在一定程度上防止隱私泄露和個人信息被盜用。總之,對于人工智能可能帶來的倫理問題,我們需要技術(shù)和管理雙管齊下?,F(xiàn)在國家已經(jīng)開始重視這方面的問題,出臺了一些監(jiān)管措施。問題的產(chǎn)生是不可避免的,最重要的還是相應(yīng)的法律法規(guī)要跟上。其實不只是人工智能,其他技術(shù)的發(fā)展同樣會帶來類似的問題。人工智能到底是魔鬼還是天使,取決于使用它的人是魔鬼還是天使。所以我們的科研人員應(yīng)該是負責(zé)任的、向善的科研人員,才能從源頭上解決問題,讓我們制造出來的工具都是可控的、向善的。劉卓軍:人工智能的可控性確實非常重要,對于一些重要的決策,我們不能完全交給人工智能去做。比如一個導(dǎo)彈發(fā)射系統(tǒng),如果僅憑算法去決定要不要發(fā)射,會產(chǎn)生非常重大的問題。此外,我接觸過一些企業(yè),幫助他們制定相關(guān)的標(biāo)準。在我們的政策和標(biāo)準制定過程中,需要多鼓勵企業(yè)參與、聽取他們的意見,才能夠更好地監(jiān)管企業(yè),同時促進人工智能技術(shù)的良性應(yīng)用。傅小蘭:站在普通用戶的角度上,很多人確實很擔(dān)心自身的隱私問題,甚至?xí)伎?,越來越強大的機器是否會對人類造成傷害?周志華:就像我前面說過的,我們絕大多數(shù)人工智能研究者其實只想要做一些幫助人類的智能工具,而并不是試圖去制造那些有很大風(fēng)險甚至可能在這個星球上取代人類的人造智能生命體。但是這對大眾來說并不那么清楚,可能會使人感到恐慌。所以,我們需要加強科普工作和與公眾的溝通。顧勇:有些智能聊天軟件現(xiàn)在已經(jīng)非常強大,但是也產(chǎn)生了一個明顯的問題,就是它會 “學(xué)壞”,會在學(xué)習(xí)海量數(shù)據(jù)的過程中,從網(wǎng)絡(luò)世界中學(xué)會很多不好的語言,產(chǎn)生涉及暴力、種族歧視等不道德、不規(guī)范的表達。如何讓這種非常有用的工具更加可控,也是一個需要關(guān)注的問題。周志華:這個問題對當(dāng)前技術(shù)是一個挑戰(zhàn),大型智能聊天工具通常用極其巨大的語料庫進行學(xué)習(xí),很難有足夠的人力去對每一條語料進行預(yù)先甄別和清理。譚鐵牛:這可能也是我們?nèi)斯ぶ悄苎芯空叩呢?zé)任,我們應(yīng)該從技術(shù)上去解決語料篩選的效率問題。這應(yīng)該是一個很有意義的研究方向。何生:還有一些問題可能沒有那么危險,但也是需要考慮的,比如有些事情人工智能可以做,但是我們是不是要讓它們?nèi)プ??比如對于有些行業(yè),人工智能的應(yīng)用可能會導(dǎo)致從業(yè)者的大量失業(yè)。那么從社會安定的角度來講,我們是不是就不要這么著急地去應(yīng)用新技術(shù)?另外,人工智能已經(jīng)在文藝方面有不錯的表現(xiàn),它能夠畫畫、寫詩、作曲。我們應(yīng)該鼓勵機器去進行這方面的創(chuàng)作,還是應(yīng)該把這種工作留給人類自己,讓我們自己去享受創(chuàng)作的過程?這些也是值得思考的問題。林惠民:感謝大家今天的發(fā)言,對于人類智能、人工智能的含義以及它們之間的關(guān)系進行了許多交流,也討論了一些當(dāng)前與人工智能相關(guān)的社會和倫理問題。相信這種跨學(xué)科的交流可以拓展我們的視野、活躍我們的思路。本文是《國家科學(xué)評論》(National Science Review, NSR)Forum文章“Inspired, but not mimicking: a conversation between artificial intelligence and human intelligence” 的中文版本。英文版:https:///10.1093/nsr/nwac068
|