沒人真正知道最尖端的算法的運(yùn)作過(guò)程,而這顯然是個(gè)嚴(yán)重問(wèn)題。 原作丨Will Knight 編譯丨Alina 原文丨MIT Technology Review 去年,一輛神秘的無(wú)人駕駛汽車被投放在新澤西州蒙茅斯郡無(wú)人的街道上。這輛由Nvidia芯片制造公司的研究員開發(fā)的試驗(yàn)無(wú)人車看起來(lái)沒什么特別的,不過(guò),它和Google、特斯拉或者通用汽車研發(fā)的車輛都不一樣。事實(shí)上,它甚至是AI力量崛起的化身。這輛無(wú)人駕駛汽車并非在實(shí)施程序員或工程師編寫的指令,相反,它在觀察人類后,完全依靠著自學(xué)的算法運(yùn)行。 誠(chéng)然,做出這樣的進(jìn)步不愧為是一大壯舉,但這一壯舉難免令人感到不安,畢竟沒人知道這輛車到底是如何做出每一步?jīng)Q定的。運(yùn)行過(guò)程中,汽車的傳感器直接通過(guò)處理數(shù)據(jù)的巨大神經(jīng)網(wǎng)絡(luò)將信息發(fā)送,控制方向盤、剎車以及汽車的各個(gè)系統(tǒng),而指令的最終成果甚至和人類駕駛員開并無(wú)二致。不過(guò)難以預(yù)料的事總可能發(fā)生,萬(wàn)一哪天這輛車沖撞到樹上,或者在綠燈前停下呢?誰(shuí)也說(shuō)不準(zhǔn)。畢竟目前為止,沒有人能夠解析它的步驟。這輛無(wú)人駕駛汽車的系統(tǒng)過(guò)于復(fù)雜,連設(shè)計(jì)這輛車的程序員都無(wú)從解構(gòu)它的每一步行為后再找出相應(yīng)理由。當(dāng)然,要去讓這輛車自己解答更是天方夜譚——你哪里見過(guò)系統(tǒng)可以自我解釋是如何執(zhí)行命令的呢? 無(wú)人汽車的神秘算法是對(duì)于人類的警告,由人工智能引發(fā)的種種問(wèn)題正在向我們逼近。近幾年來(lái),已經(jīng)無(wú)人懷疑隱藏在無(wú)人駕駛汽車背后的AI技術(shù),即深度學(xué)習(xí),在解決各種問(wèn)題時(shí)能展現(xiàn)出多大的能力,深度學(xué)習(xí)也早已被廣泛應(yīng)用于各個(gè)領(lǐng)域,例如為添加圖片字幕,識(shí)別語(yǔ)音、多語(yǔ)種翻譯等等。如今,人工智能應(yīng)用于診療絕癥、交易大宗財(cái)產(chǎn)或是其他足以改變行業(yè)現(xiàn)狀的事務(wù)已經(jīng)不再是遙不可及的夢(mèng)想。它們正在成為現(xiàn)實(shí)。 然而,如果人類無(wú)法找出解決辦法能夠更好地了解這些技術(shù),開發(fā)者無(wú)法更好地掌控這些技術(shù),上述的事永遠(yuǎn)都不可能,或者說(shuō)不應(yīng)該發(fā)生。不然的話,我們根本難以預(yù)料機(jī)器失誤會(huì)何時(shí)產(chǎn)生——而事實(shí)證明失誤總是難以避免。這也是為什么Nvidia開發(fā)的無(wú)人汽車仍處于實(shí)驗(yàn)階段。 目前,數(shù)學(xué)模型已經(jīng)可以用于幫助決定假釋犯人、貸款人員或是受聘員工的名單。如果你有幸能夠接觸到這些數(shù)學(xué)模型,你或許可以了解其背后的原理。然而無(wú)論是銀行、軍隊(duì)、或是企業(yè)老板還是其他人,他們的注意力都集中在更為復(fù)雜的機(jī)器學(xué)習(xí)方法上,這些方法可以做出更自動(dòng)化,也更為高深莫測(cè)的決定。在常見的機(jī)器學(xué)習(xí)方法中,深度學(xué)習(xí)就是完全不同的編程方法之一。“這已經(jīng)成為了一個(gè)嚴(yán)重的問(wèn)題,未來(lái)還會(huì)更趨嚴(yán)重,”在MIT研究機(jī)器學(xué)習(xí)應(yīng)用的教授Tommi Jaakkola表示,“不管是投資決策,醫(yī)療決策或是軍事決策,沒有人會(huì)想僅僅依靠一個(gè)‘黑匣子’就做出最終抉擇?!?/p> Tommi Jaakkola 那么,是否應(yīng)該將質(zhì)問(wèn)AI系統(tǒng)如何得出最終結(jié)論?在業(yè)界這個(gè)問(wèn)題已經(jīng)開始引起爭(zhēng)論。自2018年的夏季起,歐盟或許會(huì)要求各大公司向用戶解釋他們的AI系統(tǒng)到底如何做出最終決策的。然而這一要求其實(shí)并不現(xiàn)實(shí),即使是表面看起來(lái)相對(duì)簡(jiǎn)單的系統(tǒng),比如運(yùn)用深度學(xué)習(xí)發(fā)布廣告或推薦歌曲的應(yīng)用軟件或網(wǎng)站,實(shí)施起來(lái)依然有一定困難。運(yùn)行這些程序的電腦實(shí)際是在自我操控,他們的運(yùn)作方式可能無(wú)人能理解,就算是設(shè)計(jì)程序的工程師也沒有辦法做出完全詳細(xì)的解釋。 這一現(xiàn)狀就向人類提出了一些難以逾越的難題。隨著科技發(fā)展,人類可能即將跨過(guò)某些看不見的尺度,在那個(gè)時(shí)候,使用人工智能或許還需要賦予它極大的信任才可以。人類也無(wú)法完全解釋自己的思想過(guò)程,但我們也可以憑著直覺做出判斷,選擇是否信任某些人。那么人類在將來(lái)是否可以仿照這一做法,對(duì)待機(jī)器就如同對(duì)待陌生人一樣——憑直覺判斷,選擇信任還是懷疑?畢竟在歷史上還從未出現(xiàn)過(guò)我們親手制造卻無(wú)法理解的機(jī)器程序。那么將來(lái)在面對(duì)這些無(wú)法預(yù)測(cè)行為的神秘機(jī)器人,我們將如何與之相處溝通? 這些問(wèn)題引領(lǐng)著我不斷探究AI算法的前沿領(lǐng)域,我采訪了Google、蘋果公司和各種科技公司的AI專家,甚至還親自拜訪了這個(gè)時(shí)代最偉大的哲學(xué)家之一。 (藝術(shù)家Adam Ferriss使用Google的“深度夢(mèng)境”創(chuàng)造了這一圖像,下圖相同?!吧疃葔?mèng)境”能夠莫伊深度神經(jīng)網(wǎng)絡(luò)的認(rèn)知模式來(lái)調(diào)整圖像。此圖采用了神經(jīng)網(wǎng)絡(luò)的中級(jí)層次。 作者:ADAM FERRISS) 2015年,紐約西奈山醫(yī)院的一個(gè)研究團(tuán)隊(duì)將深度學(xué)習(xí)應(yīng)用于記錄患者的全面數(shù)據(jù),包括檢驗(yàn)結(jié)果,診療記錄等等。醫(yī)院的研究團(tuán)隊(duì)將這套程序命名為“深度患者”(Deep Patient),用于記錄大約700000名患者的病情數(shù)據(jù)。當(dāng)“深度患者”用于測(cè)試新的病人數(shù)據(jù)時(shí),它對(duì)與病人病情的推斷準(zhǔn)確得令人難以置信。雖然沒有任何專業(yè)性設(shè)備,但是“深度患者”通過(guò)對(duì)數(shù)據(jù)的分析發(fā)現(xiàn)了隱藏在背后的某些規(guī)律,因此它得以成功地推斷哪些人在什么時(shí)候可能患病,甚至包括癌癥。西奈山研究團(tuán)隊(duì)的對(duì)賬Joel Dudley表示,“深度患者”掌握了各種手段根據(jù)記錄“完美地”預(yù)測(cè)病情,當(dāng)然,“完美”一詞只是相較于人類而言的。 同時(shí),“深度患者”也有些讓人捉摸不透。試驗(yàn)中,“深度患者”表現(xiàn)出了對(duì)于精神疾病預(yù)測(cè)的高度精準(zhǔn)性,令人震驚。例如精神分裂癥有多難預(yù)料簡(jiǎn)直是醫(yī)學(xué)界“臭名昭著”的難題,而讓Dudley疑惑的是,“深度患者”到底是如何做出準(zhǔn)確分析的,對(duì)此,他至今沒有得出什么結(jié)論,畢竟機(jī)器人也沒有給他任何提示。如果在未來(lái),機(jī)器人將真正幫助醫(yī)生進(jìn)行診療,它們一定得在給出預(yù)測(cè)的同時(shí)做出合理闡述,給出理論依據(jù),證明推斷是正確的,或者臨時(shí)改變病人的藥物是合理的。“我們的確可以建立這些模型,”Dudley顯得有點(diǎn)悲傷,“但我們卻弄不懂他們到底是如何運(yùn)作的。” 然而,人工智能并非歷來(lái)如此。自人工智能誕生以來(lái),就有兩個(gè)對(duì)立的學(xué)派對(duì)于人工智能應(yīng)該被理解和被詮釋的程度多少有不同的觀點(diǎn)。許多人認(rèn)為我們制造的機(jī)器應(yīng)該是根據(jù)邏輯規(guī)則合理運(yùn)營(yíng)的,它們的內(nèi)部流程應(yīng)當(dāng)對(duì)程序員完全透明化。而另一部分人卻認(rèn)為,“智能化”一詞最好的體現(xiàn)就應(yīng)該是機(jī)器能夠?qū)W習(xí)觀察,獲知經(jīng)驗(yàn),然后完全按照某種“生理習(xí)性”自由運(yùn)作——而這也意味著計(jì)算機(jī)編程實(shí)際上被轉(zhuǎn)化成了機(jī)器的大腦。不同于程序員編寫指令解決問(wèn)題,機(jī)器人可以根據(jù)實(shí)例數(shù)據(jù)運(yùn)行算法,輸出結(jié)果。機(jī)器學(xué)習(xí)技術(shù)發(fā)展至今,顯而易見人工智能系統(tǒng)的走向更偏向于后一學(xué)派的理念:機(jī)器自我編程。 起初,這種機(jī)器自我編程的做法使用具有很大的局限,直到1960至1970年代,它們還被限制于專業(yè)領(lǐng)域中。然而,計(jì)算機(jī)在各行業(yè)中的大量運(yùn)用以及大數(shù)據(jù)的崛起燃起了人們新的興趣,于是更為強(qiáng)大的機(jī)器學(xué)習(xí)科技誕生了,尤其是如今赫赫有名的“人工神經(jīng)網(wǎng)絡(luò)”。至1990年代,神經(jīng)網(wǎng)絡(luò)已經(jīng)可以自動(dòng)將手寫字符數(shù)字化。 不過(guò),真正的跨越式發(fā)展仍出現(xiàn)在近十年內(nèi)。在歷經(jīng)幾次失敗和改進(jìn)后,神經(jīng)網(wǎng)絡(luò)在自動(dòng)認(rèn)知領(lǐng)域展現(xiàn)了驚人的潛力和進(jìn)展,深度學(xué)習(xí)的確是近日人工智能蓬勃發(fā)展的源頭,它給予了計(jì)算機(jī)無(wú)窮的力量——就如人類可以識(shí)別語(yǔ)音文字這一技能一樣,復(fù)雜得讓人難以逐步記錄流程。深度學(xué)習(xí)在對(duì)計(jì)算機(jī)進(jìn)行革新時(shí),也極大地提升了機(jī)器翻譯。如今,深度學(xué)習(xí)已經(jīng)在醫(yī)藥、金融、手工等各行各業(yè)應(yīng)用,幫助人類做出各種重要決定。 (作者:ADAM FERRISS) 機(jī)器學(xué)習(xí)科技在其本質(zhì)上就比手工編碼系統(tǒng)更晦澀難懂,就算對(duì)于計(jì)算機(jī)科學(xué)家亦是如此。當(dāng)然,這并不是說(shuō)將來(lái)所有的AI技術(shù)都將變得難以理解,我們只是提出在本質(zhì)上,深度學(xué)習(xí)本身就是一個(gè)神秘的黑匣子。 僅僅深入看看深度神經(jīng)系統(tǒng)里到底是什么是不足以弄清它的工作原理的。一個(gè)網(wǎng)絡(luò)的推理運(yùn)算包含于成千上萬(wàn)個(gè)模擬神經(jīng)元的行為之中,再被分配至幾十個(gè),甚至是幾百個(gè)錯(cuò)綜復(fù)雜的內(nèi)部聯(lián)結(jié)層級(jí)之中。神經(jīng)元是接收輸入信息的第一層。比如一張圖片的像素亮度首先發(fā)送至神經(jīng)元,接著才會(huì)執(zhí)行運(yùn)算,輸出新信號(hào)。輸出信號(hào)將流入復(fù)雜的網(wǎng)絡(luò),傳送至下一層級(jí)的神經(jīng)元。如此周而復(fù)始,直到機(jī)器完成輸出。在此期間,單獨(dú)的神經(jīng)元會(huì)糾正其運(yùn)算以求最好的輸出結(jié)果,因此這一過(guò)程也被稱為“反向傳播”。 一個(gè)深度網(wǎng)絡(luò)中的不同層級(jí)可以在不同的抽象級(jí)別上識(shí)別事物。如果是一個(gè)專為識(shí)別狗的系統(tǒng),那么最低層次就負(fù)責(zé)識(shí)別最簡(jiǎn)單的特征,例如狗的輪廓或是顏色;高級(jí)一些的層次就負(fù)責(zé)識(shí)別略為復(fù)雜的特征,比如毛發(fā)和眼睛等;最后,最高層次就負(fù)責(zé)鑒定狗的品種。簡(jiǎn)單來(lái)說(shuō),這種做法就可以應(yīng)用于別的機(jī)器輸入,自學(xué)人類經(jīng)驗(yàn),例如演講的聲音、書信中的語(yǔ)言文字或者汽車行駛時(shí)該如何操作方向盤。 當(dāng)然,已經(jīng)有人用獨(dú)創(chuàng)的戰(zhàn)略設(shè)備試圖捕獲機(jī)器運(yùn)行的步驟,以更詳細(xì)地解釋系統(tǒng)運(yùn)行時(shí)到底發(fā)生了什么。2015年是,Google的研究員修繕了某個(gè)建立于深度學(xué)習(xí)的圖像識(shí)別算法,之后,這一算法不僅能簡(jiǎn)單地在照片中定位物品,更能直接生產(chǎn)物品或者改變物品。通過(guò)反向運(yùn)行算法,研究員們得以理解這一程序如何識(shí)別照片上的物體。以照片上的小鳥和建筑舉例,在這個(gè)名為“深度夢(mèng)境”(Deep Dream)的工程最終顯示的圖像上,形似外星人的動(dòng)物逐漸從云端與植被中顯現(xiàn),夢(mèng)幻模糊的佛塔漸漸透過(guò)森林和山脈躍然紙上。這些圖像證明了,深度學(xué)習(xí)也并不一定全是高深莫測(cè)的,Google的研究員就成功地解密了這些熟悉的圖像是如何被識(shí)別的。不過(guò)這些圖像也同樣在預(yù)告我們深度學(xué)習(xí)與人類認(rèn)知的巨大差距,這樣一來(lái),人們甚至可能忽略人工智能產(chǎn)生的一些結(jié)果。Google的研究員注意到,當(dāng)算法繪制出一幅啞鈴的圖像,它也同時(shí)繪制出了舉起啞鈴的手臂。因?yàn)樵跈C(jī)器看來(lái),手臂已經(jīng)是啞鈴的一部分了。 借著神經(jīng)科學(xué)和認(rèn)知科學(xué)的助力,人工智能再進(jìn)一步。美國(guó)懷俄明州立大學(xué)的助理教授Jeff Clune帶領(lǐng)了一個(gè)小隊(duì),用光學(xué)錯(cuò)覺等效人工智能來(lái)測(cè)試深度神經(jīng)網(wǎng)絡(luò)。2015年,Clune的團(tuán)隊(duì)發(fā)現(xiàn)一旦圖像采用了機(jī)器系統(tǒng)正在搜尋的低級(jí)的模式,神經(jīng)網(wǎng)絡(luò)就會(huì)被這些圖像欺騙,接收到根本不存在的信息。Clune的合作人Jason Yosinski同樣建立了用以探測(cè)大腦的工具。這一探測(cè)工具旨在監(jiān)測(cè)神經(jīng)網(wǎng)絡(luò)中央的一些神經(jīng)元,從中找出到底是哪些圖像最能刺激神經(jīng)。研究發(fā)現(xiàn),圖像大多是抽象的(比如印象派畫風(fēng)的火烈鳥,或者校車之類的),這也進(jìn)一步證明了機(jī)器感知能力的神秘性。 (圖為1960年,早期的人工神經(jīng)網(wǎng)絡(luò)處理燈光傳感器的輸出流程,位于紐約水牛城康奈爾航空實(shí)驗(yàn)室) 然而,對(duì)于人工智能的“思考方式”,僅僅管中窺豹遠(yuǎn)遠(yuǎn)不夠。深度神經(jīng)網(wǎng)絡(luò)中運(yùn)算程序的交互作用才是高級(jí)認(rèn)知和復(fù)雜決策的關(guān)鍵因素,然而這些運(yùn)算對(duì)于數(shù)學(xué)方程和變量卻宛如泥沼?!凹偃缰皇且粋€(gè)很小的神經(jīng)網(wǎng)絡(luò),你可能能夠搞懂它到底是如何運(yùn)作的,”Jaakkola表示,“但是一旦這個(gè)神經(jīng)網(wǎng)絡(luò)相當(dāng)大,比如說(shuō)它有上百個(gè)層級(jí),每層又由上千個(gè)單元組成,那么要搞懂它就顯得有些天方夜譚?!?/p> Jaakkola和MIT教授Regina Barzilay的辦公室毗鄰,Barzilay長(zhǎng)久以來(lái)致力于將機(jī)器學(xué)習(xí)應(yīng)用于醫(yī)藥。幾年前,43歲的Barzilay被診斷出患有乳腺癌。當(dāng)然,這一診斷結(jié)果的本身的確不是什么好事,但讓Barzilay更沮喪的是如今前沿的數(shù)據(jù)統(tǒng)計(jì)系統(tǒng)和機(jī)器學(xué)習(xí)方法都不足以解決這些腫瘤的疑難雜癥,也不能有效指導(dǎo)治療。她認(rèn)為人工智能有巨大的潛力變革目前的醫(yī)藥學(xué),但是要開發(fā)這種潛力,人們不能只局限于用機(jī)器學(xué)習(xí)記載診療記錄。Barzilay設(shè)想可以更大程度上使用這些原始數(shù)據(jù),顯然她認(rèn)為這些數(shù)據(jù)在目前都還沒有被物盡其用:“想想看我們擁有多少大數(shù)據(jù),多少有關(guān)病理的大數(shù)據(jù)?” Regina Barzilay 去年,在結(jié)束了癌癥療程后,Barzilay和她的學(xué)生與麻省綜合醫(yī)院的醫(yī)生們聯(lián)手開發(fā)了一種系統(tǒng),能夠通過(guò)挖掘病理學(xué)報(bào)告來(lái)識(shí)別有特殊臨床表現(xiàn)的病人,供研究者研習(xí)。然而,Barzilay也同樣認(rèn)識(shí)到,系統(tǒng)在運(yùn)作時(shí)需要給出合理的解釋。之后,她與Jaakkola和另一名學(xué)生又進(jìn)一步完善系統(tǒng),使其能夠摘取并且突出顯示病理報(bào)告中具體表明特殊臨床表現(xiàn)的文字片段。Barzilay和學(xué)生還開發(fā)了另一種深度學(xué)習(xí)算法,能在乳房X線圖像中探測(cè)出乳腺癌的早期征兆?,F(xiàn)在她們正在致力于讓系統(tǒng)能夠解釋其工作原理?!叭祟惡蜋C(jī)器必須得聯(lián)手工作,相互提升。”Barzilay認(rèn)為。 美國(guó)軍方已經(jīng)投資數(shù)十億用于機(jī)器學(xué)習(xí)項(xiàng)目,力圖在將來(lái)可以操控汽車和飛行器,識(shí)別目標(biāo),從海量智能數(shù)據(jù)中篩選重要數(shù)據(jù)分析。不同于其他領(lǐng)域,軍方運(yùn)用算法時(shí)不允許容忍任何無(wú)法解釋的程序,所以美國(guó)國(guó)防部在研究機(jī)器學(xué)習(xí)時(shí),如何確認(rèn)機(jī)器的可解釋性成為一大難題。 DARPA開發(fā)的戰(zhàn)斗機(jī)器狗 美國(guó)國(guó)防部高級(jí)研究計(jì)劃局(DARPA)的項(xiàng)目經(jīng)理David Gunning目前正在監(jiān)測(cè)一項(xiàng)名為“可解釋性人工智能”的項(xiàng)目。Gunning曾經(jīng)參與監(jiān)測(cè)了Siri的開發(fā)項(xiàng)目,而如今他已經(jīng)白發(fā)蒼蒼。他說(shuō),自動(dòng)化已經(jīng)不知不覺地覆蓋了軍事項(xiàng)目中不計(jì)其數(shù)的領(lǐng)域。目前,人工智能分析師正在嘗試用機(jī)器學(xué)習(xí)鑒定海量監(jiān)控?cái)?shù)據(jù)中的模式。各種各樣的自動(dòng)化汽車或飛行器正在被陸續(xù)開發(fā)、測(cè)試。然而,沒有士兵會(huì)喜歡一輛不知其原理的自動(dòng)機(jī)器人坦克,當(dāng)然,分析師也不可能在不知原因的狀況下就對(duì)機(jī)器給出的信息做出相應(yīng)反應(yīng)?!皺C(jī)器學(xué)習(xí)系統(tǒng)給出錯(cuò)誤警報(bào)是一件很常見的事,所以軍事分析師必須借助系統(tǒng)做出的解釋才能決定是否做出反應(yīng)。”Gunning解釋道。 David Gunning 今年三月,DARPA從學(xué)界和行業(yè)中挑選出了13個(gè)項(xiàng)目進(jìn)行資助,隸屬于Gunning監(jiān)測(cè)的項(xiàng)目之下。這13個(gè)項(xiàng)目中,有些可以建立在華盛頓大學(xué)教授Carlos Guestrin的工程之上。Guestrin和他的同事已經(jīng)研究出解決方案,讓機(jī)器學(xué)習(xí)系統(tǒng)為輸出結(jié)果提供合理的解釋。因此,通過(guò)這一解決方案,能夠自動(dòng)從數(shù)據(jù)中找到案例的機(jī)器人就能同時(shí)給出運(yùn)作原理。比如用以識(shí)別恐怖分子郵件的機(jī)器系統(tǒng)是通過(guò)數(shù)百萬(wàn)的郵件學(xué)習(xí)后才能得出結(jié)論。在使用Guestrin的方法后,機(jī)器系統(tǒng)還能夠在郵件中標(biāo)出關(guān)鍵詞。此外,Guestrin的團(tuán)隊(duì)還設(shè)計(jì)出了另一種方法,讓圖像識(shí)別系統(tǒng)突出強(qiáng)調(diào)圖像中最重要的部分,以此解釋其工作原理。 然而,這一方式和其他類似的方式,諸如Barzilay研發(fā)的方法一樣,都有同樣的缺陷——系統(tǒng)提供的解釋過(guò)于簡(jiǎn)單,在傳送過(guò)程中極有可能丟失重要信息。“理想境界”是一旦AI和人類對(duì)話,它就能提供解釋。顯然,我們還沒做到完美?!盙uestrin表示,“距離最后目標(biāo),我們還有很長(zhǎng)的路要走?!?/p> 不止是癌癥診療或是軍方?jīng)Q策這種高風(fēng)險(xiǎn)領(lǐng)域,人工智能能否為決策提供解釋對(duì)于科技發(fā)展為人類日程生活中的一部分至關(guān)重要。Tom Gruber在蘋果公司帶領(lǐng)Siri的研發(fā)團(tuán)隊(duì),他說(shuō),“解釋性”至關(guān)重要,只有理解才能讓Siri變?yōu)楦悄?,更高效的語(yǔ)音助手。Gruber目前并不想透露未來(lái)Siri將如何發(fā)展,但很顯然,任何一個(gè)人在接受Siri的附近餐廳推薦時(shí)都想知道它推薦的原因是什么。作為蘋果公司AI研究的主管及卡耐基梅隆大學(xué)的副教授,Ruslan Salakhutdinov將“解釋性”視為將來(lái)人類與智能機(jī)器關(guān)系發(fā)展中的核心。“只有能夠解釋才能擁有相互信任。”他說(shuō)。 Ruslan Salakhutdinov 然而,就連人類也有很多行為不能解釋,人工智能可能同樣如此?!熬退阌袀€(gè)人能夠相對(duì)合理地解釋(他/她的行為),這種解釋也可能是不完整的,所以人工智能也會(huì)有這種狀況,”Clune認(rèn)為,“可能這就是所謂‘智力’吧,僅有一部分能夠給出合理解釋,而另一部分或是直覺,或是潛意識(shí),或是神秘莫測(cè)??傊y以訴諸言表?!?/p> 如果的確如Clune說(shuō)的那樣,那么或許我們只能選擇要么相信AI的決策,要么拋棄AI。當(dāng)然,AI的決策在發(fā)展時(shí)必須和社會(huì)步調(diào)相吻合。就如人類社會(huì)建立在某種看不見的契約之上,我們?cè)O(shè)計(jì)的AI系統(tǒng)也必須尊重、符合我們的社會(huì)準(zhǔn)則。一旦我們要設(shè)計(jì)出機(jī)器坦克或是“死刑機(jī)器”,我們必須保證他們的決策吻合于我們的道德體系。 為探究這些形而上學(xué)的概念,我也去塔夫斯大學(xué)會(huì)見了Daniel Dennet教授。Dennet是一位赫赫有名的哲學(xué)家以及認(rèn)知科學(xué)家,如今在研究人類的意識(shí)及思想。Dennett最近出版的關(guān)于人類意識(shí)的百科專著《從細(xì)菌到巴赫,從巴赫到細(xì)菌》(From Bacteria to Bach and Back)中的某個(gè)章節(jié)提到,智力在進(jìn)化過(guò)程中一個(gè)非常自然的階段就是演化出了某種體系可以執(zhí)行連自己都無(wú)法解釋的行為?!岸鴨?wèn)題在于,人類應(yīng)該如何自我調(diào)節(jié)以做出最明智的抉擇,我們對(duì)于自我的標(biāo)準(zhǔn)應(yīng)該定在哪里?對(duì)于‘智能’的標(biāo)準(zhǔn)又在哪里?”在那個(gè)位于田園牧歌般的大學(xué)校園里,Dennet的辦公室顯得有些雜亂。他如是對(duì)我說(shuō)道。 對(duì)于科學(xué)家們對(duì)“可解釋性”孜孜不倦的追求,他也提出了警示?!拔艺J(rèn)為,如果總有一天我們必須運(yùn)用這些技術(shù),并且生活將依靠于這些技術(shù),那我們一定要盡可能了解這些技術(shù)給出的方案背后的原因和原理。”他說(shuō)道。然而,鑒于我們至今都不能給出一個(gè)完美的解決方案,我們依然要對(duì)AI給出的解釋也抱有警惕,就算是再智能的機(jī)器也同樣如此。 “如果機(jī)器無(wú)法和我們一樣給出決策的原因,”他說(shuō),“那么不要相信它?!?/p> |
|
來(lái)自: 黑馬_御風(fēng) > 《人工智能》