科幻小說(shuō)《2001:太空奧德賽》和根據(jù)它改編而成的經(jīng)典電影《2001 太空漫游》,講述了 AI 由人類幫手變?yōu)槿祟悮缯叩墓适?。我們親手打造的 AI,會(huì)在未來(lái)葬送人類嗎?霍金表示,這絕非危言聳聽。 圖片來(lái)自:視頻截圖 近日,在劍橋大學(xué) Leverhulme 智能未來(lái)中心的開幕式上,霍金為火爆的 AI 行業(yè)潑了盆冷水。 “我們花了大量時(shí)間學(xué)習(xí)歷史,”霍金在演講中說(shuō)道,“而我們所面對(duì)的歷史,大多是愚蠢的。所以,現(xiàn)在人們?cè)谘芯恐悄艿奈磥?lái),這是一個(gè)令人欣慰的變化?!?/p> 霍金表示 AI 研究的確帶來(lái)了許多積極因素,認(rèn)為通過(guò)這項(xiàng)新技術(shù),人類或許能夠消除工業(yè)化對(duì)自然界造成的一些損害,而最終目標(biāo)肯定是消除疾病和貧困。
圖片來(lái)自:Kiplinger 然而,作為享譽(yù)世界的物理學(xué)家,霍金對(duì)于 AI 持謹(jǐn)慎態(tài)度,他認(rèn)為一旦人類創(chuàng)造出具有自我意識(shí)的超級(jí)智慧,可能會(huì)面臨著自我毀滅的風(fēng)險(xiǎn),因?yàn)?AI 的意志可能會(huì)與我們產(chǎn)生沖突。
霍金之所以會(huì)有這種擔(dān)憂,是因?yàn)樵谒磥?lái),AI 的潛力是無(wú)限的,“生物大腦與電腦的能力并沒(méi)有太區(qū)別。” “因此,從理論上講,計(jì)算機(jī)可以模仿人類智慧,并超越它?!?/p> 這已經(jīng)不是霍金第一次對(duì) AI 潛在威脅提出警告了。去年年初,霍金就與一些 AI 專家,還有馬斯克、沃茨等名人發(fā)表聯(lián)合聲明,呼吁禁止武器化 AI 和自主作戰(zhàn)系統(tǒng)。 圖片來(lái)自:Gralien Report 當(dāng)時(shí)霍金解釋說(shuō),AI 的真正風(fēng)險(xiǎn)不在于其是否充滿惡意而在于其能力。他舉了個(gè)例子:你在負(fù)責(zé)一項(xiàng)水利工程時(shí),不得不淹沒(méi)蟻穴,盡管你并不是一個(gè)仇恨螞蟻的人,但在完成目標(biāo)時(shí)無(wú)意間就為螞蟻帶來(lái)了滅頂之災(zāi)。 所以,當(dāng)一個(gè)能力 MAX 的超級(jí)人工智能在執(zhí)行任務(wù)時(shí),如果它的目標(biāo)與人類不一致,那么人類就有可能面臨與螞蟻同樣的厄運(yùn)。 盡管目前人工智能的發(fā)展仍處于起步階段,但霍金對(duì)于 AI 威脅的評(píng)價(jià),或許值得我們深思:
題圖來(lái)自:Silver Ferox |
|
來(lái)自: llvsh > 《人工智能的應(yīng)用》