以前在科幻電影中看到的智能機(jī)器人消滅人類的故事雖然引起人們的關(guān)注,但是絕大多數(shù)人認(rèn)為那些科幻故事是為了吸引觀眾而編造的,至少在非常遙遠(yuǎn)的年代里都不可能出現(xiàn)。但是,隨著美國谷歌公司旗下企業(yè)開發(fā)的人工智能圍棋軟件“AlphaGo”此前在人機(jī)大戰(zhàn)中以4比1戰(zhàn)勝了韓國的世界頂級(jí)棋手;AlphaGo的升級(jí)版Master在著名圍棋對(duì)弈網(wǎng)站“弈城網(wǎng)”橫空出世,通過下快棋連勝職業(yè)高手60盤。人們對(duì)計(jì)算機(jī)人工智能的進(jìn)步速度感到驚訝,公眾也關(guān)注在科幻電影里面的人工智能機(jī)器人給人類帶來災(zāi)難的故事是不是離現(xiàn)實(shí)越來越近了。其實(shí)現(xiàn)代社會(huì)中廣泛采用的智能化的自動(dòng)技術(shù)已經(jīng)造成了工人失業(yè)的問題。 在現(xiàn)代生產(chǎn)發(fā)展過程中機(jī)械的采用產(chǎn)生了第一次工業(yè)革命;電氣的運(yùn)用被稱為第二次工業(yè)革命;而信息產(chǎn)業(yè)的發(fā)展被認(rèn)為是第三次工業(yè)革命;以智能制造為基礎(chǔ)的工業(yè)革命被認(rèn)為是第四次工業(yè)革命。在工業(yè)時(shí)代的開始階段,機(jī)器只是起了動(dòng)力的作用,主要用來減輕人工勞動(dòng)的體力需求。在生產(chǎn)過程中還需要工人直接操作機(jī)器來完成工作。在工業(yè)化的歷史上,即使是很初步的機(jī)械生產(chǎn)對(duì)手工業(yè)生產(chǎn)帶來了極大的沖擊也會(huì)引發(fā)社會(huì)的改變。第一次工業(yè)革命的發(fā)生地——英國就發(fā)生過手工業(yè)工人銷毀蒸汽機(jī)帶動(dòng)的紡織機(jī)的的運(yùn)動(dòng)。但是,機(jī)器生產(chǎn)帶來的生產(chǎn)力的極大提高,全體社會(huì)成員都從生產(chǎn)力的發(fā)展中大大提高了生活質(zhì)量。所以機(jī)械化生產(chǎn)最終成為社會(huì)的主要生產(chǎn)方式,包括了工業(yè)生產(chǎn)和農(nóng)業(yè)生產(chǎn);甚至一些日常生活的服務(wù)工作也大量采用機(jī)械,比如洗衣機(jī)、空調(diào)等等。 自動(dòng)化機(jī)器的應(yīng)用,使得一些比較復(fù)雜的工作也可以由機(jī)器來完成。以智能制造為基礎(chǔ)的第四次工業(yè)革命已經(jīng)使得在一些自動(dòng)化生產(chǎn)車間需要人工的崗位越來越少了。所以,有不少人認(rèn)為,機(jī)器人上崗則會(huì)造成大量的工人失業(yè),機(jī)器人直接奪走了工人的飯碗。而且隨著機(jī)器人技術(shù)的成熟和廣泛應(yīng)用,這種趨勢(shì)還在逐步擴(kuò)大化。 據(jù)華盛頓郵報(bào)報(bào)道,一份美國白宮發(fā)布的報(bào)告指出,人工智能技術(shù)的普及有可能在美國導(dǎo)致數(shù)以百萬的人失去工作,特別是受教育程度較低的工人。但人工智能技術(shù)對(duì)生產(chǎn)力的增長又至關(guān)重要。人工智能技術(shù)指導(dǎo)下的機(jī)器人的采用,對(duì)生產(chǎn)質(zhì)量、生產(chǎn)效率、節(jié)約成本等關(guān)鍵指標(biāo)的提高都有極大的好處。這可能導(dǎo)致更高的平均工資和更短的工作時(shí)間。在最后報(bào)告得出的結(jié)論是:我們的經(jīng)濟(jì)實(shí)際上需要更多的人工智能,而非更少。為了調(diào)和人工智能技術(shù)帶來的好處和負(fù)面作用,報(bào)告指出美國政府應(yīng)該一方面加強(qiáng)技術(shù)領(lǐng)域的教育,另一方面要擴(kuò)大失業(yè)福利的范圍,以支持這些因經(jīng)濟(jì)轉(zhuǎn)型而失業(yè)的人。 由此可以知道,人工智能技術(shù)的普及可以大大地提高社會(huì)生產(chǎn)力,可以創(chuàng)造更多的社會(huì)財(cái)富,可以提高生活質(zhì)量。工人失業(yè),生活水平下降,其實(shí)是社會(huì)財(cái)富分配方式不能適應(yīng)生產(chǎn)方式的改變的反映。一些工人可以通過技術(shù)培訓(xùn)、再教育而走上新的工作崗位。人工智能技術(shù)帶來的更高的生產(chǎn)效率,產(chǎn)生更多的社會(huì)財(cái)富,可以帶來更高的平均工資和更短的工作時(shí)間、更加廣泛的失業(yè)福利,這些都是這種轉(zhuǎn)型的基礎(chǔ)。很多國家的有效力的政府都已經(jīng)認(rèn)識(shí)到這個(gè)問題,并且主動(dòng)地采取了廣泛的措施來開展這項(xiàng)轉(zhuǎn)型工作。 所以智能化的自動(dòng)技術(shù)造成工人失業(yè)的問題是一個(gè)社會(huì)問題,而不是技術(shù)問題。從這個(gè)角度來看,人工智能技術(shù)的廣泛采用不僅會(huì)對(duì)生產(chǎn)的發(fā)展帶來革命,而且也會(huì)推動(dòng)社會(huì)的發(fā)展。 再來看看更加高級(jí)的人工智能技術(shù)的發(fā)展會(huì)不會(huì)對(duì)人類帶來威脅?人工智能按照其智力水平可以分成三大類: 弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅長于單個(gè)方面技能的人工智能。比如有能戰(zhàn)勝象棋世界冠軍的人工智能,但是它只會(huì)下象棋,你要讓它解決其它方面的問題,它可能需要重新學(xué)習(xí)積累知識(shí),重新研究策略。 強(qiáng)人工智能Artificial General Intelligence (AGI): 人類級(jí)別的人工智能。強(qiáng)人工智能是指在各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干。Linda Gottfredson教授把智能定義為“一種寬泛的心理能力,能夠進(jìn)行思考、計(jì)劃、解決問題、抽象思維、理解復(fù)雜理念、快速學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)等操作?!睆?qiáng)人工智能在進(jìn)行這些操作時(shí)應(yīng)該和人類一樣得心應(yīng)手。 超人工智能Artificial Superintelligence (ASI): 牛津哲學(xué)家,知名人工智能思想家Nick Bostrom把超級(jí)智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學(xué)創(chuàng)新、通識(shí)和社交技能?!背斯ぶ悄芸梢允歉鞣矫娑急热祟悘?qiáng)一點(diǎn),也可以是各方面都比人類強(qiáng)萬億倍的。超人工智能也正是人們對(duì)人工智能會(huì)毀滅人類這個(gè)話題這么火熱的緣故。 強(qiáng)人工智能和超人工智能除了要模擬人類的理性思考能力(比如計(jì)算、邏輯分析、推理等)以外,還需要學(xué)會(huì)人類的感性思維技能(比如聯(lián)想、感情、頓悟等)。對(duì)于感性思維技能方面運(yùn)行機(jī)制和計(jì)算原理,目前幾乎是一無所知。所以能否用現(xiàn)在的電子計(jì)算機(jī)實(shí)現(xiàn)強(qiáng)人工智能和超人工智能的可能性現(xiàn)在還是一個(gè)未知數(shù)。超強(qiáng)人工智能技術(shù)和超強(qiáng)人工智能的具體實(shí)現(xiàn)還有很大的差距。目前人類認(rèn)識(shí)到的再高級(jí)的智能機(jī)器人也只不過是一些電子設(shè)備,它們?cè)谀承┓矫娴募夹g(shù)功能可能大大超過人類,但是再復(fù)雜的設(shè)備也不可能具有違背自然規(guī)律的特性。人工智能機(jī)器要夠完成強(qiáng)人工智能,甚至超人工智能必須要有比人腦更加合理(合乎自然規(guī)律)的機(jī)構(gòu)和運(yùn)行機(jī)制??梢哉f使用現(xiàn)在的簡單電子元件的運(yùn)行為基礎(chǔ)的電子計(jì)算機(jī)要達(dá)到人類的智力水平可能需要把全部地球的物質(zhì)用完還不夠,或者需要消耗地球上(甚至全宇宙的)無法支持的能量。所以強(qiáng)人工智能和超人工智能的實(shí)現(xiàn)可能不是什么機(jī)器人了,而是人類自己的進(jìn)化。當(dāng)人類充分認(rèn)識(shí)自己的進(jìn)化規(guī)律以后,發(fā)展出更加進(jìn)化的人類。所以那個(gè)進(jìn)化并不是人類的毀滅,而是新的更加進(jìn)化的人類會(huì)被人類自己的努力而更加快速地發(fā)展起來。 對(duì)于人工智能技術(shù)的控制問題我們可以回顧一下核武器的發(fā)展過程。二次世界大戰(zhàn)中,人們?yōu)榱粟A得戰(zhàn)爭勝利發(fā)展了核武器。它的巨大的殺傷力引起世界人民的廣泛關(guān)注,所以世界各國高度重視核武器的管理和控制。目前雖然世界上已經(jīng)有足夠毀滅人類好多次的核武器,但是沒有人敢于輕易地使用它。這些核武器成為那些擁有核武器的國家之間平衡的威懾力量,使他們不能夠輕易發(fā)動(dòng)大規(guī)模戰(zhàn)爭??梢哉f核武器從一種戰(zhàn)爭武器,成為一種制止大規(guī)模戰(zhàn)爭的特殊力量。人類制造出了核武器,那么必須能夠有效地控制核武器的使用,人類才能夠在這個(gè)地球上共同生存下去。 與核武器類似,高級(jí)人工智能技術(shù)可能具有毀滅人類的能力。但是再高級(jí)的人工智能技術(shù)也是人類發(fā)展出來的一種技術(shù),所以人類在開發(fā)這種技術(shù)的同時(shí),也會(huì)發(fā)展出控制這種技術(shù)的能力。就好比人們不會(huì)去做一輛沒有剎車的汽車,即使是它可能具有非常高超的人工智能的自動(dòng)駕駛功能。目前人類生產(chǎn)的各種機(jī)器,比人類具有更強(qiáng)大的力量,跑的更快,飛得更高,當(dāng)它們失控的時(shí)候的確會(huì)帶來災(zāi)難,甚至傷害一些人的性命。但是它們是不可能戰(zhàn)勝人類的。 輿論所指的高級(jí)人工智能可能會(huì)對(duì)人類造成傷害的一個(gè)主要因素是生物的生存原則。的確中自然界經(jīng)過長期進(jìn)化而生存下來的生物,當(dāng)然包括人類,生存是基因能夠延續(xù)的一項(xiàng)基本原則。但是被人為地制造出來的人工智能機(jī)器人,就不應(yīng)該讓它具有這個(gè)為了自己生存而傷害人類的規(guī)則,而應(yīng)該具有為了人類可以犧牲自己的“社會(huì)性”原則??苹米骷野⑽髂蛟?span lang="EN-US">1940年就提出了著名的機(jī)器人三原則,就是為保護(hù)人類的對(duì)機(jī)器人做出的規(guī)定。第一條:機(jī)器人不得傷害人類,或看到人類受到傷害而袖手旁觀。第二條:機(jī)器人必須服從人類的命令,除非這條命令與第一條相矛盾。第三條:機(jī)器人必須保護(hù)自己,除非這種保護(hù)與以上兩條相矛盾。這說明人類在發(fā)展人工智能技術(shù)的開始就已經(jīng)注意到這個(gè)問題。 那么相信當(dāng)技術(shù)發(fā)展到可以制造高級(jí)人工智能機(jī)器人的時(shí)候,人類一定有辦法控制機(jī)器人不會(huì)對(duì)人類產(chǎn)生傷害。對(duì)于可以自我復(fù)制的機(jī)器人,也一定有辦法在需要的時(shí)候可以控制它的復(fù)制過程。不會(huì)讓它們無限制地自我復(fù)制而威脅到人類的安全。倒是要防止人類中的不法分子利用人工智能技術(shù)以危害人類的惡性目的來制造戰(zhàn)爭機(jī)器人。 所以可能毀滅人類的不是人工智能機(jī)器人,而可能是人類自己的惡性。隨著科技的發(fā)展,人類社會(huì)也必須更加和諧地發(fā)展。特別是對(duì)于人的社會(huì)性的培養(yǎng)和維護(hù)也要能夠適應(yīng)社會(huì)生產(chǎn)力發(fā)展的步伐,不要使得人類自己制造的為人類服務(wù)的高級(jí)人工智能機(jī)器人成為能夠危害人類自己的東西。那些科幻故事中智能機(jī)器人傷害人類的故事的確給人類以提醒,在開發(fā)那些智能機(jī)器人的時(shí)候應(yīng)該充分注意采取足夠的措施,包括賦予那些高級(jí)智能機(jī)器人足夠的“社會(huì)性”特性,以及對(duì)這些機(jī)器人具有足夠強(qiáng)的控制能力。 有些人擔(dān)心因?yàn)楦呒?jí)智能機(jī)器人具有自己學(xué)習(xí)和進(jìn)化能力,所以可能會(huì)自發(fā)地生產(chǎn)出一些對(duì)人類不利的,不可控制的特性。但是,不要忘記:機(jī)器人是人創(chuàng)造出來的。人類就是它們的“上帝”。那么除非有人故意在智能機(jī)器人中植入了與人類為敵的程序,否則機(jī)器人無論怎么學(xué)習(xí),如何進(jìn)化也不會(huì)產(chǎn)生與“上帝”為敵的特性。 “人工智能技術(shù)會(huì)毀滅人類”是一個(gè)忽悠全人類的謊言,可能是因?yàn)閷?duì)人工智能技術(shù)的不夠了解而產(chǎn)生的誤識(shí);也可能是某些惡性人員企圖掩飾他們利用人工智能技術(shù)來實(shí)現(xiàn)的陰謀而是散布的輿論。與管理控制核武器類似,人類只要認(rèn)真對(duì)待技術(shù)發(fā)展的失控,就可以很好地發(fā)展人工智能技術(shù)來為人類自身的發(fā)展服務(wù)。但是人類自身的惡的特性而“教壞”機(jī)器人才是應(yīng)該加以大力防范的問題,就如防止核武器擴(kuò)散到壞人手中一樣。只要人類堅(jiān)持正確的社會(huì)發(fā)展道路,在各種先進(jìn)的科學(xué)技術(shù)的支持下,人類社會(huì)生產(chǎn)力的極大發(fā)展,會(huì)大大加快社會(huì)的進(jìn)步,使得全人類可以有一個(gè)更加美好的生活。我對(duì)于人工智能技術(shù)的發(fā)展持樂觀態(tài)度,更加不會(huì)去擔(dān)心人工智能技術(shù)會(huì)毀滅人類。
|
|