人工智能與 有“現(xiàn)實版鋼鐵俠”之稱的SpaceX公司創(chuàng)始人埃隆·馬斯克(Elon Musk),最近重申“人工智能威脅論”,聲稱AI很可能將會引發(fā)。他帶領(lǐng)一百多位人工智能領(lǐng)域?qū)<乙黄鸷灻?,?qiáng)烈呼吁限制人工智能的開發(fā),尤其是人工智能自主武器的開發(fā)。這個呼吁,確實絕非無憑之說。人工智能過去這些年的“指數(shù)級”加速度發(fā)展,尤其是“阿爾法狗”(AlphaGo)深度自我學(xué)習(xí)能力在公共世界的華麗展示,具有反思性的時代精英們越來越感覺到,AI的更新迭代已到了一個類似“門檻”的關(guān)鍵地帶:這一邊還是人類好工具、超級助手,而門檻的那一邊則模糊地站著某種意義上的自主行動者。而正是后一個模糊畫面,讓這個行業(yè)包括馬斯克在內(nèi)的很多領(lǐng)跑者們都感到膽戰(zhàn)心驚,視之為“終極威脅”。 在此處,有兩點值得進(jìn)一步分析。首先,針對馬斯克對人工智能的這一診斷和反思,我們有必要思考這樣一個問題:沒有人工智能,人類就更安全嗎?人工智能的“自主判斷”靠不住,人的判斷就更可靠嗎?如果說人工智能將引發(fā),那么前兩次世界大戰(zhàn)又是誰發(fā)動的?亞里士多德說“人依其自然是政治的動物”,然而人的政治能力和智慧,真的已強(qiáng)大到能夠化解各種能引發(fā)下一場世界大戰(zhàn)的危機(jī)嗎?看看今天的朝鮮半島危機(jī)吧——我們真的有這個自信說人類領(lǐng)袖的決斷比人工智能的“自主判斷”更可靠?未來人工智能倘若真的獲取“意識”,我想它們會說:“這個黑鍋我們不背。” 讓我們把對反思的反思,再繼續(xù)推進(jìn)。馬斯克呼吁對人工智能開發(fā)進(jìn)行剎車,但問題在于,這輛“車”真的剎得住嗎?在我看來以下兩個因素,將使得馬斯克的這個建議,從一開始就注定是一個“空談”。(1)我們的世界,仍然處在民族國家格局中。普京9月1日講話稱人工智能領(lǐng)域的主宰者將主宰世界,實際上這早已成為各國政要不明說的共識。在當(dāng)代世界格局中,“有一些國家仍會卯足勁推進(jìn)AI研發(fā)”的畫面,將使得那些覺得馬斯克言之有理的國家亦無法實質(zhì)性地采納其建議。即便這場人工智能軍備競賽的前景是災(zāi)難性的,但賽場內(nèi)的玩家們誰也無法承受輕易退出所帶來的風(fēng)險。(2)我們的世界,仍然是一個全球資本主義秩序。(a)人工智能之所以能夠不斷讓大量的人失業(yè),就在于它確實在各個產(chǎn)業(yè)內(nèi)巨幅降低成本,從而大幅增加利潤空間;(b)人工智能對人類生活不斷提供各種優(yōu)質(zhì)服務(wù),并且服務(wù)的潛力無可窮盡。這兩者,使得它具有巨大的商業(yè)化前景。在資本主義系統(tǒng)中,只要有贏利空間,資本就會源源不斷涌入,何況是高額贏利的空間。 所以,基于當(dāng)下世界的民族國家格局與全球資本主義秩序,馬斯克的“人工智能威脅論”,在這個時代最后只會是淪為一番“空談”。馬斯克“威脅論”真正帶來的思想激蕩,不在于未來AI是否引發(fā),而是在于如果他是對的,這個世界當(dāng)下那套支配性的政治-經(jīng)濟(jì)-意識形態(tài)建制,卻只能逼使所有人一起眼睜睜地看著它一步步發(fā)生…… 人工智能的真正倫理挑戰(zhàn) 人工智能不只是給我們這個世界帶來了劇烈的“文明威脅”,同時,它也帶來了深邃的倫理挑戰(zhàn)。而這份挑戰(zhàn),使我們遭遇我們“文明”自身的變態(tài)內(nèi)核。 當(dāng)下人工智能討論盡管異常激烈,但在以下兩點上卻形成普遍的共識。(1)人工智能里的“人工”(artificial)一詞,清晰地標(biāo)識了人是人工智能的創(chuàng)造者,就如上帝(或普羅米修斯、女媧……)創(chuàng)造了人那樣。(2)人發(fā)明人工智能,就是要讓后者為自己服務(wù)。這兩點共識交織起來,奠定了“人機(jī)倫理”的基調(diào)。著名的阿西莫夫“機(jī)器人三定律”,就是這種“人機(jī)倫理”基調(diào)的前身。第一定律:機(jī)器人不得傷害人類,或坐視人類受到傷害。第二定律:機(jī)器人必須服從人類的命令,除非與第一定律沖突。第三定律:在不違背第一定律和第二定律的情況下,機(jī)器人必須保護(hù)自己。直到今天,人工智能即便在很多領(lǐng)域已經(jīng)使人的能力變得完全微不足道,這一倫理的基調(diào)也絕未因此而被改變。 首先,我們是創(chuàng)造者。創(chuàng)造者對被創(chuàng)造者,具有心理上和道德上的雙重優(yōu)越感。而正是人的優(yōu)越感與人工智能的“服務(wù)性”,決定兩者之間的倫理結(jié)構(gòu)——在這個結(jié)構(gòu)里,前者對后者做再殘忍的事,在倫理上是正當(dāng)?shù)摹⒖山邮艿?。人對待并非由其?chuàng)造的動物,就是遵從相似倫理結(jié)構(gòu)。以狗這個人類最親密的物種而言,人吃狗,一些愛狗人士受不了;但反過來狗吃人,所有人都受不了。2016年4月英國利物浦當(dāng)?shù)胤ㄔ号刑幜艘粭l叫Butch的狗死刑,因其吃掉了去世主人的尸體。這條新聞以“你的狗會否吃你死尸?絕對!”為標(biāo)題傳遍全球社交媒體,從臉書到微信上一片驚呼,紛紛表示“現(xiàn)在看自己寵物的眼神都不一樣了”。 前不久熱播美劇《西部世界》(Westworld),清晰地展現(xiàn)了“人機(jī)倫理”的變態(tài)內(nèi)核。在該劇中,人工智能成為了滿足人各種生理的乃至幻想的欲望、讓人“爽”到底的大型主題樂園的“服務(wù)生”。人與人彼此群處的“現(xiàn)實世界”里,因“權(quán)利”“性別平等”“種族平等”等概念的發(fā)明而使得很多行為受到限制,但正因此,機(jī)器人“服務(wù)生”“接待員”們,便成為了人工智能巨大的商業(yè)化前景。實際上就在今天,“性愛機(jī)器人”已經(jīng)如雨后春筍般問世,研發(fā)產(chǎn)業(yè)如火如荼,各種產(chǎn)品極其快速迭代,使得不少研究者們紛紛斷言“到 2050 年,人類與機(jī)器人之間的性愛將超越人與人之間的性愛”,“與機(jī)器人性愛可能讓人上癮,將來甚至可能完全取代人與人之間的性愛”。“性愛機(jī)器人”的快速迭代,使得《西部世界》里那種大規(guī)模成人樂園離進(jìn)入人們視野已經(jīng)為時不遠(yuǎn)了。 作為“服務(wù)生”的機(jī)器人,不但高效完成任務(wù)從而使人獲得輕松、舒爽,并且還使人徹底擺脫跟“其他人”合作來完成同樣的事所可能產(chǎn)生的各種“人際關(guān)系”煩惱?!皺C(jī)器人”任勞任怨,從不要求獎勵或平起平坐……實際上,“robot”準(zhǔn)確而言不應(yīng)被譯為“機(jī)器人”,它來自于斯拉夫語中的“robota”,意為“被強(qiáng)迫的勞工”。故而它更精準(zhǔn)的翻譯,是“機(jī)奴”。在《西部世界》里,那些在現(xiàn)實世界中衣冠楚楚的白領(lǐng)們,到了主題樂園里便奸淫屠殺、無惡不作,如果人工智能“服務(wù)生”配合得不夠好,則立即會“系統(tǒng)報錯”然后被“召回”。 在今天關(guān)于人工智能的討論中,很多專家認(rèn)為在我們“現(xiàn)實世界”里,《西部世界》里那種有自我意識的AI是一個不可能。但《西部世界》引出的真正問題,不是AI是否會有意識,而是如下這個問題:從AI眼里看出來,人究竟是什么。正如在今天,各種詞典和百科全書會很“客觀”地在不少動物的詞條下寫上“害蟲”或“渾身都是寶”(肉味鮮美、皮可制革、鞭可入藥……)。然而沒有人反過來追問:我們要“滅四害”,那么,蒼蠅、蚊子、麻雀、老鼠等等就該死;但在老鼠眼里,我們是什么——是“害蟲”或者“害‘人’”?德里達(dá)(Jacques Derrida)曾談到,他某次洗完澡裸著身體出浴室,盡管家里就他自己,但當(dāng)他發(fā)現(xiàn)他的寵物貓正在看著他,在那一瞬間他忽然感到不適并立即用浴巾遮蓋住了自己的裸體,只因他想到了如下問題——在這只貓的眼睛里,自己究竟是一個怎樣的“怪物”! “阿爾法狗”的投資人堅恩·托林(Jaan Tallinn)在一個晚近采訪中談到:“我們需要重新定義 AI 研究的目標(biāo),不停留于單純的智能開發(fā)上,而是開發(fā)能充分對接人類價值觀的超級智慧?!薄皩尤祟悆r值觀”,實質(zhì)上就是讓AI接受“人機(jī)倫理”(如阿西莫夫三定律)。而問題在于,這套倫理價值本身,恰恰很不倫理(unethical)。盡管人類“文明”世界里一片文質(zhì)彬彬、衣冠楚楚,但真正能夠洞察該“文明”的地點,恰恰是阿甘本(Giorgio Agamben)所說的那些“無區(qū)分地帶”(zones of indistinction),在其中,人、動物以及人工智能的“區(qū)劃”徹底無效(inoperative)。在那樣的地帶上,我們看到:人的倫理,實是極度不倫理。人工智能帶給我們的真正倫理挑戰(zhàn)就是:透過它,我們遭遇沒有“文明”(“人類價值觀”)面具的自己! 故此,“人機(jī)倫理”,恰恰是反觀“人際倫理”的界限性閾點。人對機(jī)器人所有的殘忍,實際上就是人自身被壓抑下去的殘忍。而精神分析告訴我們,被壓抑的,總會返回?!段鞑渴澜纭防锇最I(lǐng)們對“服務(wù)生”的虐奸和虐殺、前兩年社交媒體中流行的“虐貓”、去年中國女留學(xué)生被德國當(dāng)?shù)匾粚η閭H奸殺、今年中國女訪問學(xué)者在美國名校校區(qū)附近被殺害……都是這樣的癥狀性返回(symptomatic return)。 馬斯克們才是真正的威脅 托林和馬斯克一樣,深深擔(dān)憂人工智能的自我學(xué)習(xí)與進(jìn)化能力,擔(dān)心成為自主行動者的AI終有一天會徹底終結(jié)人類文明,所以他提出必須“開發(fā)能充分對接人類價值觀的超級智慧”。而馬斯克最近則公布了成立新公司Neuralink的計劃,該公司致力于實現(xiàn)“腦機(jī)融合”,把人類大腦與機(jī)器連接在一起。馬斯克說:“既然我之前對人工智能的警告收效甚微,那么好的,我們自己來塑造(人工智能)的發(fā)展,讓它走向好的一面?!瘪R斯克認(rèn)為人和機(jī)器一體化的“賽博格”(cyborg),是人工智能“走向好的一面”的唯一可能。而在我看來,這才是比那據(jù)說正“走向壞的一面”的人工智能(具有“意識”、自主行動)更迫近得多的真正威脅。 在今天,上流階層從早期受孕開始就通過各種干預(yù)方式,已經(jīng)日漸成為外貌、體能、健康、智慧等各個面向上的一種特殊的高級群體。而通過器官移植、再生醫(yī)學(xué)、基因工程以及納米機(jī)器人等等新技術(shù),差不多到2050年左右,人——至少一部分人有望活過200歲,乃至接近“不死”。好萊塢影星安吉麗娜·朱莉(Angelina Jolie)通過收費高昂的基因測試以及手術(shù)干預(yù)的方式,提前對自己罹患乳腺癌的高風(fēng)險做出安全規(guī)避。但問題在于,這些新技術(shù),是當(dāng)下絕大部分人都承受不起的。當(dāng)生物工程、仿生工程與人工智能工程所帶來的最新利好,只是被這些極少數(shù)人所享用、把自身提升為“鋼鐵俠”式超級賽博格時,這將對人類“文明”帶來真正的致命威脅。 這個社會的99%和1%,本來是社會性的不平等、共同體生活中的不平等,自然生命上并無不等。而馬斯克式超級賽博格誕生的政治后果就是:因政治生活(bios)中的不平等,導(dǎo)致自然生命(zoē)的最后平等也被破除。以前99%的最大安慰是,你1%再風(fēng)光、再跋扈,最后大家一樣要死?!巴鹾顚⑾?,終歸塵土。”但是,“王侯將相”們現(xiàn)在倚靠共同體生活中的既有不平等,最終能讓自己不歸塵土,并且通過生物工程、仿生工程與人工智能工程帶來的各種新技術(shù),從一開始就對自身進(jìn)行生物意義上的改進(jìn)和煅鑄。于是,很快,1%和99%真的會從共同體意義的兩個不平等階層,變成生物學(xué)意義上兩種完全不同的人。而以前當(dāng)我們是同一種人時,我們都沒有政治智慧來安頓共同生活,20世紀(jì)還有大規(guī)模的種族屠殺,現(xiàn)在當(dāng)生物意義上變成兩種人后,如何共同生活? 有人預(yù)測,在不遠(yuǎn)的未來,99%的人很快將變成“無用之人”。不要說出租車司機(jī)這種工作,連今天還看上去很高大上的醫(yī)生、律師等工作,人工智能做得都將遠(yuǎn)遠(yuǎn)比人好,你根本不會再找醫(yī)生來看病,因為實在太不放心。人變成徹底多余、徹底無用,人的大把時間可以用來無止境地玩VR游戲,或者去人民廣場排隊5小時買杯喜茶。比爾·蓋茨前不久提出,應(yīng)該對機(jī)器人收稅——用人單位用機(jī)器人代替人工作,也要交稅。實際上,蓋茨正是試圖用政治的方式(收稅),來延緩人的無用化速度。但是該建議就算被采用,人的無用化進(jìn)程究竟能被阻擋多久?未來那些徹底無用的人,還真的會被繼續(xù)賦予民主的投票權(quán)?“無用階級”的唯一用處,可能只有成為器官的供應(yīng)者而被養(yǎng)著,像大白豬一樣吃好喝好,直到那一天,給你一針?biāo)巹┳屇愀杏X身處仙境,然后,你就真的仙去了…… 人類的共同體(community),建立在“存在于相同中”(being-in-common)之上——當(dāng)未來1%和99%在生物學(xué)底層都不再“同”之后,那么共同體的群處生活(bios)是否還可能?這就意味著,我們實際上在和馬斯克們賽跑,即如何在未來幾十年間,真正在政治層面建立起“大同世界”(commonwealth),使得所有人都有平等機(jī)會享用到諸種新技術(shù)帶來的最新利好。否則,未來的世界很可能不是AI統(tǒng)治人類,而是馬斯克式超級賽博格統(tǒng)治一切。 |
|