2022年11月,美國人工智能研究實驗室OpenAI推出了自然語言處理工具機器人ChatGPT。與現(xiàn)有其他智能機器人產(chǎn)品相比,其智能化程度有著顛覆性的提升,不僅能通過連接大量的語言庫來訓(xùn)練模型,做到能夠模擬人類自然對話方式,還可以進行更為復(fù)雜的語言工作。一經(jīng)推出迅速爆火,成為歷史上增長最快的消費者應(yīng)用程序,不斷引發(fā)各個行業(yè)的廣泛關(guān)注,拉開了通用人工智能時代的序幕。 要回答這個問題,得先知道一個概念——通用人工智能(AGI),指一種能夠像人類一樣在各領(lǐng)域中執(zhí)行各種任務(wù)的智能系統(tǒng),具有類似人類的智慧、自主決策和學(xué)習能力,能夠執(zhí)行多種任務(wù),包括語音識別、自然語言處理、視覺識別等。當然,現(xiàn)階段人類離發(fā)展出真正的通用人工智能還很遠,但ChatGPT已經(jīng)能讓我們看到一絲“火花”。 從應(yīng)用角度看,ChatGPT屬于一個利用AIGC(AI generated content)技術(shù)的人工智能生成內(nèi)容產(chǎn)品。它的核心思想是利用人工智能模型,根據(jù)給定的主題、關(guān)鍵詞、格式、風格等條件,自動生成各種類型的文本、圖像、音頻、視頻等內(nèi)容。AIGC技術(shù)廣泛應(yīng)用于媒體、教育、娛樂、營銷、科研等領(lǐng)域,可以根據(jù)用戶的需求和偏好,生成符合用戶期望的內(nèi)容,節(jié)省人力和時間成本,提高內(nèi)容生產(chǎn)的效率和規(guī)模。 從技術(shù)角度講,ChatGPT是基于大型語言模型的自然語言處理工具機器人,核心就在GPT三個英文字母上,全稱是Generative Pre-trained Transformer,翻譯是“生成式預(yù)訓(xùn)練轉(zhuǎn)化器”,它可以通過海量的預(yù)訓(xùn)練來生成高質(zhì)量的自然語言文本,并且可以適應(yīng)多種不同的自然語言處理任務(wù)。所謂語言模型就是對詞語序列的概率分布的建模,即利用已經(jīng)說過的片段作為條件預(yù)測下一個時刻不同詞語出現(xiàn)的概率分布。語言模型一方面可以衡量一個句子符合語言文法的程度,同時也可以用來預(yù)測生成新的句子。比如這句話“12點了,下班了,咱們一起去食堂吧”,語言模型可以預(yù)測“食堂”后可能是“吃飯”,強大的語言模型能夠捕捉時間信息并且預(yù)測產(chǎn)生符合語境的詞語“吃午飯”。 GPT模型的底層邏輯其實就是模仿人腦。人腦的神經(jīng)元通過樹突接收信息,胞體進行簡單的加和運算,最后通過軸突把結(jié)果輸出到下一個神經(jīng)元,而包括GPT在內(nèi)的所有的人工智能神經(jīng)網(wǎng)絡(luò)就是類似的構(gòu)建方式。ChatGPT和以往的人工智能不同的是,它的模型用來學(xué)習的語料庫非常龐大,2020年5月的GPT-3,參數(shù)量達到了1750億。GPT-4的參數(shù)量更是達到了1.6萬億。同時,它還使用新的訓(xùn)練方法和優(yōu)化技術(shù),提高了模型的效率和穩(wěn)定性,成為一個多模態(tài)大模型,可以處理文本、圖像、音頻等多種類型的輸入和輸出。 OpenAI采用了一種叫“從人類反饋中強化學(xué)習”的訓(xùn)練方式對GPT模型進行訓(xùn)練,通過人類的反饋,有針對性地進行優(yōu)化,從而讓ChatGPT更加智能。訓(xùn)練的過程簡單地說可以分為三個步驟:第一步訓(xùn)練監(jiān)督策略模型。就是先學(xué)習來自網(wǎng)絡(luò)的文本數(shù)據(jù),在數(shù)據(jù)集中隨機抽取問題得出隨機答案,然后由人類標注人員給出高質(zhì)量答案,再用這些人工標注好的數(shù)據(jù)來微調(diào)GPT模型,使模型一定程度上理解人類的意圖。第二步訓(xùn)練獎勵模型。使用第一階段生成的模型,在數(shù)據(jù)集中隨機抽取問題,對于每個問題,生成多個不同的回答。人類標注者對這些結(jié)果綜合考慮給出排名順序,這一過程類似于教練或老師輔導(dǎo)。接下來,使用這個排序結(jié)果數(shù)據(jù)來訓(xùn)練獎勵模型,使模型模仿人類評分標準給不同的回答打分,進入模仿喜好階段。最后,根據(jù)打分更新參數(shù),強化模型的學(xué)習,得出高質(zhì)量回答。第三步采用PPO(近端策略優(yōu)化)強化學(xué)習來優(yōu)化策略。這一階段利用第二階段訓(xùn)練好的獎勵模型,靠獎勵打分來更新預(yù)訓(xùn)練模型參數(shù)。在數(shù)據(jù)集中隨機抽取問題,使用PPO模型生成回答,并用上一階段訓(xùn)練好的獎勵模型給出質(zhì)量分數(shù)。把回報分數(shù)依次傳遞,通過強化學(xué)習的方式以更新PPO模型參數(shù)。不斷重復(fù)第二和第三階段,通過迭代,就會訓(xùn)練出更高質(zhì)量的GPT模型。實質(zhì)上,整個訓(xùn)練過程和教小朋友數(shù)學(xué)差不多。就是先上課給例題,然后給作業(yè),再針對作業(yè)打分后挑出一些總是出錯的題目再進行有針對性的練習。 盡管ChatGPT已經(jīng)很厲害了,但依然具有很多局限性。一是可信性無法保證。目前模型還不能提供合理的證據(jù)進行可信性的驗證,在其未經(jīng)大量語料訓(xùn)練的領(lǐng)域,甚至會一本正經(jīng)地“胡說八道”和創(chuàng)造答案,語句通暢貌似合理,但其實完全大相徑庭,可能會造成誤導(dǎo)或者誤解。二是時效性不足。ChatGPT無法實時地融入新知識,其知識范圍局限于基礎(chǔ)大規(guī)模語言模型使用的預(yù)訓(xùn)練數(shù)據(jù)時間之前,可回答的知識范圍有明顯的邊界。例如,ChatGPT可能不了解最近發(fā)生的新聞、事件、人物、產(chǎn)品等,或者對一些變化了的事實沒有及時更新。三是建設(shè)成本高昂。ChatGPT需要非常大的算力來支持其訓(xùn)練和部署,應(yīng)用時也需要大算力的服務(wù)器支持。四是在特定專業(yè)領(lǐng)域表現(xiàn)不佳,無法處理復(fù)雜冗長或特別專業(yè)的語言結(jié)構(gòu)。對于來自金融、自然科學(xué)或醫(yī)學(xué)等非常專業(yè)領(lǐng)域的問題,如果沒有進行足夠的語料訓(xùn)練,ChatGPT可能無法很好地翻譯出專業(yè)術(shù)語,更難生成適當?shù)幕卮稹?/span> 實際上,ChatGPT的進步并不在于它真正的變聰明了,而是初步模仿出了人類的語言模式,但是它還遠不能真正理解自己說的內(nèi)容,呈現(xiàn)的其實是種“表面智慧”。本質(zhì)上并沒有擺脫人工智能“大數(shù)據(jù)、小任務(wù)”的大樣本被動學(xué)習模式,也就是當你問ChatGPT一個問題后,它完成這個任務(wù)是憑借巨大的數(shù)據(jù)庫而生成的,而不是像人類一樣的思考、反思和判斷。 除此之外,ChatGPT超乎以往的智能化就像一把“雙刃劍”,帶來便利的同時也引發(fā)了一系列的思考。ChatGPT的“知識”來源于在語言模型訓(xùn)練過程中的海量文本,如果訓(xùn)練文本的內(nèi)容存在偏差,有意偏向某種意識形態(tài)或觀點,那么在回答問題或輸出文本的時候就有可能產(chǎn)生具有傾向性的回答和文本內(nèi)容。ChatGPT的使用門檻低,大量的使用者缺少相關(guān)專業(yè)知識和辨別能力,很難驗證信息的準確性,可能會產(chǎn)生海量的無用甚至是誤導(dǎo)性信息。如果被不法分子亂用,可以借此快速產(chǎn)生仇恨言論、謠言等,用來煽動民族情緒、挑起社會矛盾等,對社會和諧穩(wěn)定造成不良影響。另外,ChatGPT也帶來了一系列學(xué)術(shù)倫理問題,例如論文造假等。 ChatGPT是AIGC技術(shù)進展的里程碑,使得利用人工智能進行內(nèi)容創(chuàng)作的技術(shù)成熟度大幅提升,有望成為新的全行業(yè)生產(chǎn)力工具,提升內(nèi)容生產(chǎn)效率與豐富度。在人類科技史的長河里,ChatGPT剛剛點起通用人工智能時代的“火花”,距離真正的通用人工智能還有很長的路要走。 來源:《群眾·大眾學(xué)堂》雜志2023年第3期
|
|