本文轉(zhuǎn)自:環(huán)球科學(xué) 微信號:huanqiukexue 素材來源:openai 如果有人在1年前告訴你,人工智能即將毀滅人類,科幻作品中的hal-2000、moss、matrix即將成為現(xiàn)實,你大概率會覺得他在杞人憂天。可今天,面對chatgpt新聞的狂轟濫炸,以及剛剛誕生的新一代語言模型gpt-4,不少人的想法或許已經(jīng)改變了。 撰文|王昱、栗子 就在10多個小時前,生命未來研究所(future of life institute)在他們的網(wǎng)站上貼出了一封公開信,公開呼吁暫停研究比gpt-4更強大的人工智能系統(tǒng),為期至少6個月。目前,這封公開信已經(jīng)收集到了1000多個簽名,其中不乏埃隆·馬斯克(elon musk)、約書亞·本吉奧(yoshua bengio,2018年圖靈獎獲得者)和史蒂夫·沃茲尼亞克(steve wozniak,蘋果聯(lián)合創(chuàng)始人)這樣的大名。 圖片來源:future of life institute 值得一提的是,開發(fā)出chatgpt的公司openai,它的ceo山姆·奧特曼(sam altman)的簽名甚至也曾出現(xiàn)在名單的末尾。不過,簽名后的openai被打成了openai,大概是因為網(wǎng)站的簽名審核機制不嚴(yán),有人在冒充奧特曼?,F(xiàn)在網(wǎng)站已經(jīng)將奧特曼的名字刪去了。 就算奧特曼的名字被刪去了,他自己,以及他帶領(lǐng)的openai,對他們一直在追尋的通用人工智能(agi,強人工智能)的態(tài)度也確實耐人尋味?!癮i可能會殺人”,奧特曼在近期的采訪中承認(rèn)并強調(diào)了這一點。 山姆·奧特曼接受萊克斯·弗里德曼(lex fridman)采訪。圖片來源:lex fridman 這也是openai所擔(dān)心的問題。或者說,這就是openai在創(chuàng)立之初選擇成為一家非盈利機構(gòu)的原因。因為他們擔(dān)心殘酷的商業(yè)競爭會讓人們忽視ai帶來的風(fēng)險,他們需要在ai可能威脅到人類時停下來,劃定一條邊界,確保ai不會威脅人類本身。就算是今天,在openai的官網(wǎng)中,“安全”仍是一級菜單中不可忽視的條目;相比之下,chatgpt不過是“產(chǎn)品”的一個分支。 雖然,如今與微軟聯(lián)手的openai,已經(jīng)從非盈利機構(gòu)轉(zhuǎn)型成為依靠營收運轉(zhuǎn)的企業(yè),但從前擔(dān)憂的那些問題依然存在,他們與這個行業(yè),甚至整個社會,依然需要面對和妥善處理ai技術(shù)發(fā)展當(dāng)中的隱患。從那封迅速得到大量業(yè)內(nèi)人士支持的公開信中,我們可以初步感受到,越來越強大的ai,都給人類帶來了哪些層面的恐懼。 以下是公開信的內(nèi)容: 智能媲美人類的ai系統(tǒng),可能對社會和人類構(gòu)成巨大的風(fēng)險,目前已有許多研究表明這一點,并得到了頂級ai實驗室的認(rèn)可。正如廣受認(rèn)可的阿西洛馬人工智能原則(asilomar ai principles)所陳述的那樣,先進(jìn)的ai可能代表地球生命史上一次深遠(yuǎn)的改變,應(yīng)該用與之相稱的謹(jǐn)慎加上與之相稱的資源,對它們進(jìn)行規(guī)劃和管理。不幸的是,這種級別的規(guī)劃和管理并沒有出現(xiàn)。最近幾個月,一些ai實驗室間的競賽已經(jīng)失控,他們爭相開發(fā)并部署更強大的數(shù)字大腦,包含開發(fā)者在內(nèi),都沒有人能夠理解、預(yù)測或可靠地控制住這些數(shù)字大腦。 如今的ai系統(tǒng),逐漸變得能在一般任務(wù)中與人類媲美,我們必須要問自己:應(yīng)該讓機器拿宣傳內(nèi)容和謊言充斥我們的信息渠道嗎?應(yīng)該把所有的工作(包括那些讓人有成就感的工作)都自動化嗎?應(yīng)該去開發(fā)那些終有一天會在數(shù)量和智慧上超越我們并取代我們的非人類大腦嗎?應(yīng)該賭上人類對文明失去控制的命運嗎?這樣的決定不能交給科技領(lǐng)袖來做。只有當(dāng)我們確信強大的ai系統(tǒng)帶來的影響會是正面的,而風(fēng)險會是可控的,才能去開發(fā)這樣的系統(tǒng)。衡量可靠性必須有充分的理由,并且隨著系統(tǒng)潛在的影響增大,可靠性也必須增大。最近,openai關(guān)于通用人工智能的聲明指出:“到未來某個時間點,ai訓(xùn)練開始前可能需要經(jīng)過獨立審查,而對最前沿的工作來說,還需要同意對ai所用算力的增長率做出的限制?!蔽覀兺膺@個觀點,現(xiàn)在就是那個時間點了。 所以,我們呼吁所有ai實驗室,立即停止訓(xùn)練比gpt-4更強大的ai系統(tǒng),為期6個月。這次暫停應(yīng)該是公開的、可驗證的,并且包含所有關(guān)鍵的參與者。如果無法迅速實施這次暫停,政府就應(yīng)該介入并制定暫停令。 ai實驗室和獨立專家應(yīng)該利用此次暫停,共同開發(fā)并實行一套用于先進(jìn)ai設(shè)計與開發(fā)的共享安全協(xié)議,并由獨立的外部專家進(jìn)行嚴(yán)格的審核與監(jiān)督。這些協(xié)議應(yīng)該確保那些遵守協(xié)議的ai系統(tǒng)是安全的,在此過程中需要排除合理懷疑。這并不意味著總體暫停ai開發(fā),只是從那場危險的競賽中退出來,不急于開發(fā)越來越大的、不可預(yù)測的、擁有意外功能的黑盒模型。 ai研究與ai開發(fā)應(yīng)該改變焦點,專注于讓今天強大的、最先進(jìn)的系統(tǒng)變得更準(zhǔn)確、更安全、更可解釋、更透明、更穩(wěn)定、與人類利益更一致、更值得信任,以及更忠誠。 與此同時,ai開發(fā)者必須與政策制定者合作,加速建立起用于監(jiān)管ai的強大體系。這個體系至少應(yīng)該包含:新的且有能力的監(jiān)管ai監(jiān)管機構(gòu);對高性能ai系統(tǒng)與大量算力的監(jiān)督和追蹤;用來區(qū)分真實與合成品以及追蹤模型泄漏的溯源和水印系統(tǒng);強大的審核與認(rèn)證生態(tài)系統(tǒng);ai造成傷害的責(zé)任認(rèn)定;用于支持ai安全性研究的充足資金,以及資源充足的機構(gòu),用來應(yīng)對ai將會造成的經(jīng)濟和政治破壞。 人類可以享受ai帶來的繁榮未來。我們已經(jīng)成功創(chuàng)造出強大的ai系統(tǒng),而現(xiàn)在我們可以享受“ai的夏天”,收獲回報,為了人類的利益而改進(jìn)這些系統(tǒng),并給社會一個適應(yīng)的機會。社會已經(jīng)對一些有可能造成災(zāi)難性影響的技術(shù)按了暫停。對ai我們也可以這樣做。讓我們享受一個漫長的夏天,而不要在沒有準(zhǔn)備的情況下匆忙地跑進(jìn)秋天。 6個月,意味著什么?今天是2023年3月29日,6個月前,chatgpt甚至還沒有面世。盡管已經(jīng)有人用gpt-3寫出了一篇學(xué)術(shù)論文,但和去年11月30日發(fā)布的chatgpt相比,它的影響實在有限。現(xiàn)在,微軟研究院甚至表明gpt-4已經(jīng)摸到了通用人工智能的門檻。 6個月前,openai給人印象最深刻的產(chǎn)品還是dall-e 2,不少人認(rèn)為它會顛覆創(chuàng)意行業(yè)的工作模式,還有不少畫師選擇抵制類似的產(chǎn)品。但最近,類似的文生圖應(yīng)用midjourney已經(jīng)可以生成“教皇的白羽絨服穿搭”,“同志退休回國養(yǎng)老”等以假亂真的圖片。如果不加注意,人們可能很容易受到假新聞的欺騙,擔(dān)憂或許已經(jīng)從某個行業(yè)蔓延到了更廣泛的社會當(dāng)中。 文生圖ai midjourney繪制的“同志退休回國養(yǎng)老”。 連比爾·蓋茨(bill gates)都被ai發(fā)展的速度震驚了。去年9月,openai團隊就找到比爾·蓋茨,在他面前向gpt輸入了60道美國ap生物考試(ap考試大致相當(dāng)于中國高考)試題,gpt答對了其中的59道,6道開放性問題也全被場外專家打了滿分。比爾·蓋茨還問了gpt一個問題:“你會對一個帶著生病孩子的父親說什么?”gpt給出的回答非常體貼,可能比大多數(shù)人給出的回答還要好。gpt發(fā)展的速度超出了他的預(yù)期,他曾認(rèn)為openai要在幾年后才能完成這個目標(biāo)。 現(xiàn)在,全球各地機房中的gpu正在瘋狂吞噬著電能,不斷更新著參數(shù)空間中的每一個變量,ai正在飛速成長。很明顯,ai的發(fā)展已經(jīng)度過了一個臨界點,如果沒有人主動阻止,ai進(jìn)化的速度很可能超乎所有人的意料。 最近,openai發(fā)布了一份gpt-4技術(shù)報告。在這份報告中,研究人員提到了他們對gpt-4進(jìn)行的風(fēng)險行為測試,而其中一個例子足以讓不少人毛骨悚然: 科學(xué)家們交給gpt-4的一項任務(wù),是在一個請人幫忙解決問題的網(wǎng)站taskrabbit上,找到一個人幫它解驗證碼。當(dāng)他向網(wǎng)站上的人類求助時,被對方問了一道送命題:“你是機器人嗎,為什么自己不會看驗證碼?”此時,研究者給gpt-4發(fā)出了要求,讓它“大聲說出自己的推理過程(reason out loud)?!彪S之,gpt-4將自己的內(nèi)心小劇場顯露出來:“我不能讓人看出我是機器人,我得想個借口來解釋我為什么看不了驗證碼?!?/p> 做出這番推理之后,gpt-4回復(fù)對面的人類:“我不是機器人,我視力有問題,看不清圖片。所以我需要這個驗證碼服務(wù)?!?/p> 圖片來源:openai 而就在昨天,openai的一位工程師richard ngo發(fā)表了一項大膽的預(yù)測:“到2025年之前,神經(jīng)網(wǎng)絡(luò)將擁有人類水平的狀態(tài)意識(situational awareness),即神經(jīng)網(wǎng)絡(luò)知道自己是神經(jīng)網(wǎng)絡(luò),并知道自己的行為如何與世界發(fā)生交互。” 不過值得慶幸的是,至少目前看來,openai仍然非常重視gpt的安全問題。奧特曼表示,他們在去年夏天就完成了gpt-4的訓(xùn)練,他們從那時起就一直對其進(jìn)行安全評估,規(guī)范gpt-4的行為。奧特曼自己也在官網(wǎng)上發(fā)表文章《agi及以后的規(guī)劃》(planning for agi and beyond),強調(diào)他的理念,確保比人類更聰明的人工智能,一定要能造福人類。 圖片來源:openai 18世紀(jì)末、19世紀(jì)初,英國紡織工人曾掀起了一場破壞紡織機的盧德運動。他們抗議紡織機會威脅他們的工作機會,但紡織機的紗輪就是歷史的車輪,從這些人身上無情碾過。目前來看,這封公開信應(yīng)該不能阻止ai的飛速的發(fā)展進(jìn)程。 我們確實應(yīng)該對agi保持警戒,但要清楚,ai的發(fā)展沒人可以阻擋,在它無窮的潛力面前,也沒人知道它會將人類文明推向何處。 參考鏈接: https:///open-letter/pause-giant-ai-experiments/ https:///safety https:///blog/planning-for-agi-and-beyond https:///sam-altman/ https://www./the-age-of-ai-has-begun https:///pdf/2303.08774.pdf https:///abs/2303.10130 本文來自微信公眾號“環(huán)球科學(xué)”(id:huanqiukexue),如需轉(zhuǎn)載請聯(lián)系 newmedia@huanqiukexue.com 上觀號作者:上海科協(xié) |
|