當(dāng)美國(guó)開放人工智能研究中心(OpenAI)發(fā)布其人工智能(AI)機(jī)器人ChatGPT之后,這家人工智能公司的主要投資方之一——微軟公司的市值飆升了1150億美元,漲幅約6.5%。 法國(guó)《世界報(bào)》網(wǎng)站近日以《“AI正在經(jīng)歷其'iPhone時(shí)刻’并將像2007年的蘋果公司那樣顛覆社會(huì)”》為題發(fā)表文章說,華爾街認(rèn)識(shí)到,一場(chǎng)革命正在上演:AI正在經(jīng)歷其“iPhone時(shí)刻”,并將像2007年的蘋果公司那樣顛覆社會(huì)。 事實(shí)上,幾個(gè)月以來,華爾街已經(jīng)不愿再聽到人們談?wù)摯笮涂萍脊緯r(shí)的論調(diào):亞馬遜、特斯拉、“字母表”、微軟、元宇宙平臺(tái)公司……它們的好日子過去了。趨勢(shì)發(fā)生了反轉(zhuǎn),AI引擎未來需要數(shù)十億美元的投資,只有這些巨頭有條件開發(fā)它們。 谷歌前老板埃里克·施密特、美國(guó)前國(guó)務(wù)卿基辛格和美國(guó)麻省理工學(xué)院計(jì)算機(jī)學(xué)院院長(zhǎng)丹尼爾·胡滕洛赫爾在《華爾街日?qǐng)?bào)》發(fā)表的論壇文章中也解釋了這一點(diǎn)。他們認(rèn)為,市場(chǎng)應(yīng)當(dāng)由幾種大型AI模型構(gòu)成,其價(jià)值超過10億美元,受到成千上萬臺(tái)計(jì)算機(jī)操控,公司可以推出訂閱服務(wù)。從邏輯上講,“這些模型的設(shè)計(jì)與管理將高度集中”。 施密特、基辛格和胡滕洛赫爾沒有嘲笑ChatGPT因“年少”而犯下的個(gè)別錯(cuò)誤,而是提出了幾個(gè)真正的問題。他們描述稱,這是自印刷術(shù)發(fā)明以來的空前“哲學(xué)與實(shí)踐挑戰(zhàn)”和“智能革命”。印刷術(shù)催生了由可復(fù)制經(jīng)驗(yàn)的共享構(gòu)成的現(xiàn)代科學(xué)方法。人工智能則不然,它基于地球上積攢的未經(jīng)核實(shí)的數(shù)十億數(shù)據(jù),得出沒有來源的結(jié)果。作者寫道:“啟蒙運(yùn)動(dòng)時(shí)期的科學(xué)是在積累確定性。新的人工智能產(chǎn)出的則是累積的模糊性。” AI的回答源自何處?沒有人知道答案,但最終占據(jù)上風(fēng)的正是它的回答?!澳P徒o出表面上完美的回答,將引發(fā)對(duì)這些結(jié)果的過度信任?!弊髡邔?duì)此表達(dá)了擔(dān)憂,他們想知道:“醫(yī)生將從何時(shí)開始不再喜歡質(zhì)疑軟件給出的答案?” 這事關(guān)整個(gè)社會(huì)。“AI將影響外交政策和安全戰(zhàn)略?!彼麄償嘌?,同時(shí)提出疑問:“我們未來是否能夠?qū)W會(huì)質(zhì)疑而非服從?還是說我們最終會(huì)被迫順從?AI是否會(huì)產(chǎn)生惡意呢?”作者甚至擔(dān)心,一種擁護(hù)AI的玄學(xué)將會(huì)崛起,它可能會(huì)控制大眾?!罢J(rèn)識(shí)世界的第三種方式或?qū)⒊霈F(xiàn),它既非人類的理智,也不是信仰。在這樣一個(gè)世界中,社會(huì)將變成哪般模樣?”圍繞AI產(chǎn)生的疑問好像太多了。 而英國(guó)《新科學(xué)家》網(wǎng)站近日則報(bào)道說,微軟旗下的源碼托管服務(wù)公司(GitHub)不久前也推出了一款商業(yè)工具,可以幫助程序員利用AI編寫軟件。微軟公司利用這款A(yù)I工具從人類那里得到文本指令,再將其解讀為可以直接控制機(jī)器人的代碼。在一次測(cè)試中,ChatGPT編寫代碼,并指揮機(jī)器臂用木塊拼出微軟標(biāo)識(shí)。在另一次測(cè)試中,它引導(dǎo)一架無人機(jī)到達(dá)一個(gè)航路點(diǎn),同時(shí)避開障礙物。微軟公司在一篇博客文章中說,這項(xiàng)研究旨在“測(cè)試ChatGPT是否能夠超越文本思維,以及對(duì)物理世界進(jìn)行推理,幫助機(jī)器人完成任務(wù)”。 機(jī)器人通常由軟件控制,這些軟件由人類編寫,會(huì)發(fā)出精確的指令。它們也可以由某種形式相對(duì)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)AI來控制,這些AI可以基于大量實(shí)例來學(xué)習(xí)如何執(zhí)行任務(wù)。 ChatGPT并非直接、實(shí)時(shí)地控制機(jī)器人,只是生成控制它的代碼。微軟公司在博客中說,ChatGPT的輸出不應(yīng)在未經(jīng)“謹(jǐn)慎分析”的情況下直接應(yīng)用到機(jī)器人上,但專家警告說,僅僅產(chǎn)生讓AI控制機(jī)器的想法,也是危險(xiǎn)的。 奧地利維也納大學(xué)的馬克·克克爾貝格說,或許需要制定法規(guī),以確定哪些領(lǐng)域可以使用AI,如果出了問題又誰(shuí)由該負(fù)責(zé)。 他說:“只說'讓我們把這些計(jì)算機(jī)的控制權(quán)交給AI’,這是非常危險(xiǎn)的事情。當(dāng)代人工智能的問題在于,它對(duì)用戶不透明。這是一個(gè)巨大的問題?!?/p> 還有人對(duì)語(yǔ)言模型通過編碼指令指揮機(jī)器人完成復(fù)雜任務(wù)的能力持懷疑態(tài)度。英國(guó)德蒙特福特大學(xué)的凱瑟琳·理查森說,AI語(yǔ)言模型令人信服,但它們的實(shí)際能力——包括控制機(jī)器人的適應(yīng)性——常常被夸大了。 她說:“我認(rèn)為微軟以及大多數(shù)機(jī)器人設(shè)計(jì)者,過分夸大了它們能做和不能做的事情?!保ㄎ?張百慧 王棟棟 孫青昊) (更多國(guó)際新聞,參見《參考消息》數(shù)字報(bào),點(diǎn)擊此處可訂閱或續(xù)訂)微信審核 | 夏子怡 內(nèi)容編審 | 廉海東 微信編輯 | 郭慶娜 |
|