當(dāng)人工智能高度發(fā)達,機器人會屠滅人類嗎? 霍金,堅信人工智能會毀滅人類 在未來,我們會被智商、戰(zhàn)斗力遠超人類的機器人秒殺嗎? 以前,在科幻電影中看到的智能機器人消滅人類的故事,雖然引起人們的關(guān)注 但絕大多數(shù)人認為,那些科幻故事是為了吸引觀眾而編造的,至少在非常遙遠的年代里都不可能出現(xiàn) 但是,隨著人工智能PK頂級人類,頻頻得手,人類忐忑了?。?! 美國谷歌公司旗下企業(yè)開發(fā)的人工智能圍棋軟件“AlphaGo”,此前在人機大戰(zhàn)中以4比1戰(zhàn)勝了韓國的世界頂級棋手 AlphaGo的升級版Master在著名圍棋對弈網(wǎng)站“弈城網(wǎng)”橫空出世,通過下快棋連勝職業(yè)高手60盤 人們對計算機人工智能的進步速度,感到驚訝! 公眾也關(guān)注在科幻電影里面的人工智能機器人給人類帶來災(zāi)難的故事是不是離現(xiàn)實越來越近了 廣泛采用的智能化的自動技術(shù),已經(jīng)造成了工人失業(yè)的問題 在現(xiàn)代生產(chǎn)發(fā)展過程中機械的采用,產(chǎn)生了第一次工業(yè)革命 電氣的運用,被稱為第二次工業(yè)革命 而信息產(chǎn)業(yè)的發(fā)展,被認為是第三次工業(yè)革命 以智能制造為基礎(chǔ)的工業(yè)革命,被認為是第四次工業(yè)革命 在工業(yè)時代的開始階段,機器只是起了動力的作用,主要用來減輕人工勞動的體力需求 在生產(chǎn)過程中,還需要工人直接操作機器來完成工作 在工業(yè)化的歷史上,即使是很初步的機械生產(chǎn)對手工業(yè)生產(chǎn)帶來了極大的沖擊也會引發(fā)社會的改變 第一次工業(yè)革命的發(fā)生地 --- 英國就發(fā)生過手工業(yè)工人銷毀蒸汽機帶動的紡織機的的運動 但是,機器生產(chǎn)帶來的生產(chǎn)力的極大提高,全體社會成員都從生產(chǎn)力的發(fā)展中大大提高了生活質(zhì)量 所以機械化生產(chǎn)最終成為社會的主要生產(chǎn)方式,包括了工業(yè)生產(chǎn)和農(nóng)業(yè)生產(chǎn);甚至一些日常生活的服務(wù)工作也大量采用機械,比如洗衣機、空調(diào)等等 自動化機器的應(yīng)用,使得一些比較復(fù)雜的工作也可以由機器來完成 以智能制造為基礎(chǔ)的第四次工業(yè)革命,已經(jīng)使得在一些自動化生產(chǎn)車間需要人工的崗位越來越少了 所以,有不少人認為,機器人上崗則會造成大量的工人失業(yè),機器人直接奪走了工人的飯碗 這些人將何去何從? 你會被替代嗎? 方便、快捷、精準(zhǔn),不發(fā)脾氣,絕對把你當(dāng)上帝伺候,只要鈔票到位 你準(zhǔn)備好待崗、轉(zhuǎn)業(yè)了嗎? 而且隨著機器人技術(shù)的成熟和廣泛應(yīng)用,這種趨勢還在逐步擴大化 據(jù)華盛頓郵報報道,一份美國白宮發(fā)布的報告指出,人工智能技術(shù)的普及有可能在美國導(dǎo)致數(shù)以百萬的人失去工作,特別是受教育程度較低的工人 但人工智能技術(shù)對生產(chǎn)力的增長又至關(guān)重要 人工智能技術(shù)指導(dǎo)下的機器人的采用,對生產(chǎn)質(zhì)量、生產(chǎn)效率、節(jié)約成本等關(guān)鍵指標(biāo)的提高都有極大的好處 這可能導(dǎo)致更高的平均工資和更短的工作時間 最后報告得出的結(jié)論是:我們的經(jīng)濟實際上需要更多的人工智能,而非更少 為了調(diào)和人工智能技術(shù)帶來的好處和負面作用,報告指出美國政府應(yīng)該一方面加強技術(shù)領(lǐng)域的教育,另一方面要擴大失業(yè)福利的范圍,以支持這些因經(jīng)濟轉(zhuǎn)型而失業(yè)的人 由此可以知道,人工智能技術(shù)的普及可以大大地提高社會生產(chǎn)力,可以創(chuàng)造更多的社會財富,可以提高生活質(zhì)量 工人失業(yè),生活水平下降,其實是社會財富分配方式不能適應(yīng)生產(chǎn)方式的改變的反映 一些工人可以通過技術(shù)培訓(xùn)、再教育而走上新的工作崗位 人工智能技術(shù)帶來的更高的生產(chǎn)效率,產(chǎn)生更多的社會財富,可以帶來更高的平均工資和更短的工作時間、更加廣泛的失業(yè)福利,這些都是這種轉(zhuǎn)型的基礎(chǔ) 很多國家的有效力的政府都已經(jīng)認識到這個問題,并且主動地采取了廣泛的措施來開展這項轉(zhuǎn)型工作 所以智能化的自動技術(shù)造成工人失業(yè)的問題是一個社會問題,而不是技術(shù)問題。從這個角度來看,人工智能技術(shù)的廣泛采用不僅會對生產(chǎn)的發(fā)展帶來革命,而且也會推動社會的發(fā)展 更加高級的人工智能技術(shù)的發(fā)展,會不會對人類帶來威脅? 人工智能按照其智力水平可以分成三大類: 弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅長于單個方面技能的人工智能 比如有能戰(zhàn)勝象棋世界冠軍的人工智能,但是它只會下象棋,你要讓它解決其它方面的問題,它可能需要重新學(xué)習(xí)積累知識,重新研究策略 強人工智能Artificial General Intelligence (AGI): 人類級別的人工智能 強人工智能是指在各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干。Linda Gottfredson教授把智能定義為“一種寬泛的心理能力,能夠進行思考、計劃、解決問題、抽象思維、理解復(fù)雜理念、快速學(xué)習(xí)和從經(jīng)驗中學(xué)習(xí)等操作。”強人工智能在進行這些操作時應(yīng)該和人類一樣得心應(yīng)手 超人工智能Artificial Superintelligence (ASI): 牛津哲學(xué)家,知名人工智能思想家Nick Bostrom把超級智能定義為“在幾乎所有領(lǐng)域都比最聰明的人類大腦都聰明很多,包括科學(xué)創(chuàng)新、通識和社交技能?!?/p> 超人工智能可以是各方面都比人類強一點,也可以是各方面都比人類強萬億倍的 超人工智能也正是人們對人工智能會毀滅人類這個話題這么火熱的緣故 強人工智能和超人工智能除了要模擬人類的理性思考能力(比如計算、邏輯分析、推理等)以外,還需要學(xué)會人類的感性思維技能(比如聯(lián)想、感情、頓悟等) 對于感性思維技能方面運行機制和計算原理,目前幾乎是一無所知 所以能否用現(xiàn)在的電子計算機實現(xiàn)強人工智能和超人工智能的可能性現(xiàn)在還是一個未知數(shù) 超強人工智能技術(shù)和超強人工智能的具體實現(xiàn)還有很大的差距 目前人類認識到的再高級的智能機器人也只不過是一些電子設(shè)備,它們在某些方面的技術(shù)功能可能大大超過人類,但是再復(fù)雜的設(shè)備也不可能具有違背自然規(guī)律的特性 人工智能機器要夠完成強人工智能,甚至超人工智能必須要有比人腦更加合理(合乎自然規(guī)律)的機構(gòu)和運行機制 可以說使用現(xiàn)在的簡單電子元件的運行為基礎(chǔ)的電子計算機要達到人類的智力水平可能需要把全部地球的物質(zhì)用完還不夠,或者需要消耗地球上(甚至全宇宙的)無法支持的能量 所以強人工智能和超人工智能的實現(xiàn)可能不是什么機器人了,而是人類自己的進化 當(dāng)人類充分認識自己的進化規(guī)律以后,發(fā)展出更加進化的人類 所以那個進化并不是人類的毀滅,而是新的更加進化的人類會被人類自己的努力而更加快速地發(fā)展起來 對于人工智能技術(shù)的控制問題我們可以回顧一下核武器的發(fā)展過程 二次世界大戰(zhàn)中,人們?yōu)榱粟A得戰(zhàn)爭勝利發(fā)展了核武器 它的巨大的殺傷力引起世界人民的廣泛關(guān)注,所以世界各國高度重視核武器的管理和控制 目前雖然世界上已經(jīng)有足夠毀滅人類好多次的核武器,但是沒有人敢于輕易地使用它 這些核武器成為那些擁有核武器的國家之間平衡的威懾力量,使他們不能夠輕易發(fā)動大規(guī)模戰(zhàn)爭 可以說核武器從一種戰(zhàn)爭武器,成為一種制止大規(guī)模戰(zhàn)爭的特殊力量。人類制造出了核武器,那么必須能夠有效地控制核武器的使用,人類才能夠在這個地球上共同生存下去 與核武器類似,高級人工智能技術(shù)可能具有毀滅人類的能力 但是再高級的人工智能技術(shù)也是人類發(fā)展出來的一種技術(shù),所以人類在開發(fā)這種技術(shù)的同時,也會發(fā)展出控制這種技術(shù)的能力 就好比人們不會去做一輛沒有剎車的汽車,即使是它可能具有非常高超的人工智能的自動駕駛功能。目前人類生產(chǎn)的各種機器,比人類具有更強大的力量,跑的更快,飛得更高,當(dāng)它們失控的時候的確會帶來災(zāi)難,甚至傷害一些人的性命 但是它們是不可能戰(zhàn)勝人類的 輿論所指的高級人工智能可能會對人類造成傷害的一個主要因素是生物的生存原則 的確中自然界經(jīng)過長期進化而生存下來的生物,當(dāng)然包括人類,生存是基因能夠延續(xù)的一項基本原則。但是被人為地制造出來的人工智能機器人,就不應(yīng)該讓它具有這個為了自己生存而傷害人類的規(guī)則,而應(yīng)該具有為了人類可以犧牲自己的“社會性”原則 科幻作家阿西莫夫在1940年就提出了著名的機器人三原則,就是為保護人類的對機器人做出的規(guī)定 第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀 第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾 第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾 這說明人類在發(fā)展人工智能技術(shù)的開始就已經(jīng)注意到這個問題 那么相信當(dāng)技術(shù)發(fā)展到可以制造高級人工智能機器人的時候,人類一定有辦法控制機器人不會對人類產(chǎn)生傷害 對于可以自我復(fù)制的機器人,也一定有辦法在需要的時候可以控制它的復(fù)制過程 不會讓它們無限制地自我復(fù)制而威脅到人類的安全。倒是要防止人類中的不法分子利用人工智能技術(shù)以危害人類的惡性目的來制造戰(zhàn)爭機器人 所以可能毀滅人類的不是人工智能機器人,而可能是人類自己的惡性 隨著科技的發(fā)展,人類社會也必須更加和諧地發(fā)展 特別是對于人的社會性的培養(yǎng)和維護也要能夠適應(yīng)社會生產(chǎn)力發(fā)展的步伐,不要使得人類自己制造的為人類服務(wù)的高級人工智能機器人,成為能夠危害人類自己的東西 那些科幻故事中智能機器人傷害人類的故事的確給人類以提醒,在開發(fā)那些智能機器人的時候應(yīng)該充分注意采取足夠的措施,包括賦予那些高級智能機器人足夠的“社會性”特性,以及對這些機器人具有足夠強的控制能力 有些人擔(dān)心因為高級智能機器人具有自己學(xué)習(xí)和進化能力,所以可能會自發(fā)地生產(chǎn)出一些對人類不利的,不可控制的特性 但是,不要忘記:機器人是人創(chuàng)造出來的 人類就是它們的“上帝” 那么除非有人故意在智能機器人中植入了與人類為敵的程序,否則機器人無論怎么學(xué)習(xí),如何進化也不會產(chǎn)生與“上帝”為敵的特性 “人工智能技術(shù)會毀滅人類”是一個忽悠全人類的謊言,可能是因為對人工智能技術(shù)的不夠了解而產(chǎn)生的誤識 也可能是某些惡性人員企圖掩飾他們利用人工智能技術(shù)來實現(xiàn)的陰謀而是散布的輿論 與管理控制核武器類似,人類只要認真對待技術(shù)發(fā)展的失控,就可以很好地發(fā)展人工智能技術(shù)來為人類自身的發(fā)展服務(wù) 但是人類自身的惡的特性而“教壞”機器人才是應(yīng)該加以大力防范的問題,就如防止核武器擴散到壞人手中一樣 只要人類堅持正確的社會發(fā)展道路,在各種先進的科學(xué)技術(shù)的支持下,人類社會生產(chǎn)力的極大發(fā)展,會大大加快社會的進步,使得全人類可以有一個更加美好的生活 |
|
來自: 環(huán)球蒼蠅 > 《歷史人文》