一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

ChatGPT背后的大模型技術(shù)如何煉?MSU等最新《預(yù)訓(xùn)練基礎(chǔ)模型綜述》,97頁(yè)pdf全面闡述BER...

 520jefferson 2023-02-23 發(fā)布于北京

預(yù)訓(xùn)練基礎(chǔ)模型(PFMs)被視為具有不同數(shù)據(jù)模態(tài)的各種下游任務(wù)的基礎(chǔ)。預(yù)訓(xùn)練的基礎(chǔ)模型,如BERT、GPT-3、MAE、DALLE-E和ChatGPT,在大規(guī)模數(shù)據(jù)上進(jìn)行訓(xùn)練,為廣泛的下游應(yīng)用提供了合理的參數(shù)初始化。PFMs背后的預(yù)訓(xùn)練思想在大型模型的應(yīng)用中起著重要的作用。作為一種遷移學(xué)習(xí)范式,預(yù)訓(xùn)練通過(guò)凍結(jié)和微調(diào)技術(shù)應(yīng)用于計(jì)算機(jī)視覺,顯示出良好的性能。詞向量在自然語(yǔ)言處理中也可以看作是修飾詞的一種,但它存在多義詞等問(wèn)題。與之前應(yīng)用卷積和循環(huán)模塊進(jìn)行特征提取的方法不同,生成預(yù)訓(xùn)練(GPT)方法應(yīng)用Transformer作為特征提取器,并以自回歸范式在大型數(shù)據(jù)集上進(jìn)行訓(xùn)練。類似地,BERT應(yīng)用transformer在大型數(shù)據(jù)集上作為上下文語(yǔ)言模型進(jìn)行訓(xùn)練。最近,ChatGPT在大型語(yǔ)言模型上顯示出可喜的成功,它應(yīng)用了零樣本或很少提示的自回歸語(yǔ)言模型。隨著PFMs的非凡成功,人工智能在過(guò)去幾年中在各種領(lǐng)域掀起了浪潮。文獻(xiàn)中提出了相當(dāng)多的方法,數(shù)據(jù)集和評(píng)估指標(biāo),需要更新的綜述。

圖片

本研究全面回顧了文本、圖像、圖以及其他數(shù)據(jù)模態(tài)中PFMs的最新研究進(jìn)展、當(dāng)前和未來(lái)挑戰(zhàn)和機(jī)遇。首先回顧了自然語(yǔ)言處理、計(jì)算機(jī)視覺和圖學(xué)習(xí)中的基本組成部分和現(xiàn)有的預(yù)訓(xùn)練。然后討論針對(duì)其他數(shù)據(jù)模態(tài)的其他高級(jí)PFMs,以及考慮數(shù)據(jù)質(zhì)量和數(shù)量的統(tǒng)一PFMs。此外,還討論了PFM的相關(guān)研究,包括模型效率與壓縮、安全與隱私。最后,總結(jié)了關(guān)鍵意義、未來(lái)研究方向、挑戰(zhàn)和開放問(wèn)題。希望對(duì)PFMs在可擴(kuò)展性、推理能力、跨域能力、用戶友好交互能力、安全與隱私保護(hù)能力等方面的研究有所啟發(fā)。
https://www./paper/9345ff120bd8f1b703c1c9324c321dd9
1. 引言
預(yù)訓(xùn)練基礎(chǔ)模型(PFMs)是大數(shù)據(jù)時(shí)代人工智能(AI)必不可少的重要組成部分?;A(chǔ)模型首先在[1]中命名,這意味著更廣泛的模型類及其功能。在人工智能的三大領(lǐng)域(自然語(yǔ)言處理(NLP)[2]、計(jì)算機(jī)視覺(CV)[3]和圖學(xué)習(xí)(GL)[4])中,PFM被廣泛研究。PFM是強(qiáng)大的通用模型,在各種領(lǐng)域或跨領(lǐng)域都是有效的。它們?cè)诟鞣N學(xué)習(xí)任務(wù)中表現(xiàn)出了學(xué)習(xí)特征表示的巨大潛力,如文本分類[5]、文本生成[6]、圖像分類[7]、目標(biāo)檢測(cè)[8]和圖分類[9]。PFMs在使用大規(guī)模語(yǔ)料庫(kù)對(duì)多個(gè)任務(wù)進(jìn)行訓(xùn)練,并將其微調(diào)到類似的小規(guī)模任務(wù)方面表現(xiàn)出優(yōu)越的性能,使啟動(dòng)快速數(shù)據(jù)處理成為可能。
PFMs基于預(yù)訓(xùn)練技術(shù),該技術(shù)旨在使用大量數(shù)據(jù)和任務(wù)訓(xùn)練一個(gè)通用模型,這些數(shù)據(jù)和任務(wù)可以在不同的下游應(yīng)用程序中輕松地進(jìn)行微調(diào)。預(yù)訓(xùn)練的思想源于CV任務(wù)中的遷移學(xué)習(xí)[10]。認(rèn)識(shí)到預(yù)訓(xùn)練在CV領(lǐng)域的有效性,人們開始在其他領(lǐng)域使用預(yù)訓(xùn)練技術(shù)來(lái)提高模型性能。當(dāng)預(yù)訓(xùn)練技術(shù)應(yīng)用于NLP領(lǐng)域時(shí),訓(xùn)練有素的語(yǔ)言模型(lm)可以捕獲對(duì)下游任務(wù)有益的豐富知識(shí),如長(zhǎng)期依賴關(guān)系、層次關(guān)系等。此外,在NLP領(lǐng)域進(jìn)行預(yù)訓(xùn)練的顯著優(yōu)勢(shì)在于,訓(xùn)練數(shù)據(jù)可以來(lái)自任何未標(biāo)記的文本語(yǔ)料庫(kù),即預(yù)訓(xùn)練過(guò)程中有無(wú)限數(shù)量的訓(xùn)練數(shù)據(jù)。早期的預(yù)訓(xùn)練是一種靜態(tài)技術(shù),如NNLM[11]和Word2vec[12],但靜態(tài)方法難以適應(yīng)不同的語(yǔ)義環(huán)境。因此,提出了動(dòng)態(tài)預(yù)訓(xùn)練技術(shù),如BERT[13]、XLNet[14]等。圖1描述了NLP、CV和GL領(lǐng)域PFMs的歷史和演變?;陬A(yù)訓(xùn)練技術(shù)的PFMs利用大規(guī)模語(yǔ)料庫(kù)學(xué)習(xí)通用語(yǔ)義表示。隨著這些開創(chuàng)性工作的引入,各種PFMs已經(jīng)出現(xiàn)并應(yīng)用于下游任務(wù)和應(yīng)用。

圖片

ChatGPT是PFM應(yīng)用的一個(gè)很好的例子。ChatGPT是對(duì)生成式預(yù)訓(xùn)練transformer GPT-3.5進(jìn)行微調(diào)的,它是在文本和代碼的混合上進(jìn)行訓(xùn)練的[15,16]。ChatGPT應(yīng)用了來(lái)自人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)[17,18],這已經(jīng)成為將大型語(yǔ)言模型與人類意圖[19]相結(jié)合的一種有希望的方法。ChatGPT令人驚訝的優(yōu)越性能可能會(huì)導(dǎo)致每種類型PFM訓(xùn)練范式的轉(zhuǎn)變——應(yīng)用指令對(duì)齊技術(shù),如強(qiáng)化學(xué)習(xí)(RL)、提示調(diào)整[20,21,22]和思維鏈[23,24],向人工通用智能發(fā)展。重點(diǎn)介紹了文本、圖像和圖形的PFMs,這是一個(gè)比較成熟的研究分類。對(duì)于文本,它是一個(gè)多用途的語(yǔ)言模型,用于預(yù)測(cè)序列中的下一個(gè)單詞或字符。例如,PFMs可用于機(jī)器翻譯、問(wèn)答系統(tǒng)、主題建模、情感分析等。對(duì)于圖像,它類似于文本上的PFMs,使用巨大的數(shù)據(jù)集來(lái)訓(xùn)練一個(gè)適用于許多CV任務(wù)的大模型。對(duì)于圖,類似的預(yù)訓(xùn)練思想也被應(yīng)用于獲得pfm,用于許多下游任務(wù)。除了特定數(shù)據(jù)域的PFMs,還回顧和介紹了其他一些先進(jìn)的PFMs,如語(yǔ)音、視頻和跨領(lǐng)域數(shù)據(jù)的PFMs,以及多模態(tài)PFMs。此外,還出現(xiàn)了一種處理多模態(tài)的PFMs大收斂,即所謂的統(tǒng)一PFMs。首先定義了統(tǒng)一PFMs的概念,然后回顧了近年來(lái)SOTA統(tǒng)一PFMs的最新研究進(jìn)展(如OFA[25]、UNIFIED-IO [26]、FLAVA[27]、BEiT-3[28]等)。

根據(jù)現(xiàn)有PFMs在這三個(gè)領(lǐng)域的特點(diǎn),我們得出PFMs具有以下兩個(gè)主要優(yōu)勢(shì)。首先,需要輕微的微調(diào)來(lái)增強(qiáng)模型在下游任務(wù)上的性能。第二,PFMs已經(jīng)在質(zhì)量方面進(jìn)行了綜述。我們可以將PFMs應(yīng)用于與任務(wù)相關(guān)的數(shù)據(jù)集,而不是從頭開始構(gòu)建模型來(lái)解決類似的問(wèn)題。PFMs的巨大前景激發(fā)了大量相關(guān)工作,以關(guān)注模型效率、[29]、安全性[30,31,32]和壓縮[33,34]等。

有一些綜述研究[35,8,5,6,7,1]回顧了一些特定領(lǐng)域的預(yù)訓(xùn)練模型,如文本生成[6],視覺transformer[7],目標(biāo)檢測(cè)[8]。Bommasani出版社。[1]總結(jié)了基礎(chǔ)模型的機(jī)會(huì)和風(fēng)險(xiǎn)。然而,現(xiàn)有工作沒有在預(yù)訓(xùn)練任務(wù)、效率、功效和隱私等不同方面對(duì)不同領(lǐng)域(如CV、NLP、GL、語(yǔ)音、視頻)的PFMs進(jìn)行全面的回顧。在本次調(diào)查中,我們專門跟蹤了NLP領(lǐng)域的PFMs的演變,以及預(yù)訓(xùn)練是如何轉(zhuǎn)移到CV和GL并被采用的。與其他調(diào)查相比,我們沒有對(duì)這三個(gè)領(lǐng)域現(xiàn)有的PFMs進(jìn)行全面介紹和分析。與以往預(yù)訓(xùn)練模型的綜述不同,本文總結(jié)了現(xiàn)有的模型,從傳統(tǒng)模型到pfm,以及這三個(gè)領(lǐng)域的最新工作。傳統(tǒng)模型強(qiáng)調(diào)靜態(tài)特征學(xué)習(xí)。動(dòng)態(tài)PFMs介紹了結(jié)構(gòu),這是目前的主流研究。進(jìn)一步介紹了一些針對(duì)PFMs的其他研究,包括其他先進(jìn)和統(tǒng)一的PFMs、模型效率和壓縮、安全性和隱私。最后,總結(jié)了不同領(lǐng)域未來(lái)的研究挑戰(zhàn)和開放問(wèn)題。全面介紹了附錄F和附錄g中的相關(guān)評(píng)價(jià)指標(biāo)和數(shù)據(jù)集??偨Y(jié)而言,本文的主要貢獻(xiàn)如下:

  • 本文對(duì)PFM在NLP、CV和GL中的發(fā)展進(jìn)行了扎實(shí)和最新的綜述。在這篇綜述中,討論和提供了關(guān)于三個(gè)主要應(yīng)用領(lǐng)域中的通用PFM設(shè)計(jì)和預(yù)訓(xùn)練方法的見解。

  • 我們總結(jié)了PFMs在其他多媒體領(lǐng)域(如語(yǔ)音和視頻)的發(fā)展。此外,還討論了PFMs的前沿問(wèn)題,包括統(tǒng)一PFMs、模型效率與壓縮、安全與隱私等。

  • 通過(guò)對(duì)不同任務(wù)的不同模態(tài)的PFMs的回顧,討論了大數(shù)據(jù)時(shí)代超大模型未來(lái)研究的主要挑戰(zhàn)和機(jī)遇,這指導(dǎo)了基于PFMs的新一代協(xié)作和交互智能。

圖片

圖片

圖片

專知便捷查看

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多

    亚洲国产性感美女视频| 日韩人妻免费视频一专区| 日韩一区二区三区久久| 欧美一区二区在线日韩| 亚洲欧美中文字幕精品| 亚洲男人的天堂就去爱| 国产精品内射视频免费| 麻豆tv传媒在线观看| 久久精品中文字幕人妻中文| 亚洲av熟女一区二区三区蜜桃| 日韩中文字幕在线不卡一区| 亚洲清纯一区二区三区| 空之色水之色在线播放| 日韩高清毛片免费观看| 日韩18一区二区三区| 熟女中文字幕一区二区三区| 国产午夜福利在线免费观看| 国产精品亚洲综合色区韩国| 91久久精品国产一区蜜臀| 最近日韩在线免费黄片| 欧美成人一区二区三区在线 | 国产av一二三区在线观看| 精品精品国产欧美在线| 激情丁香激情五月婷婷| 欧美老太太性生活大片| 欧美精品在线观看国产| 一区二区日韩欧美精品| 亚洲中文字幕熟女丝袜久久| 人妻露脸一区二区三区| 日本熟妇熟女久久综合| 日韩蜜桃一区二区三区| 欧美精品久久男人的天堂| 国产日韩久久精品一区| 国产原创中文av在线播放| 欧美人妻免费一区二区三区| 精品一区二区三区免费看| 欧美日韩免费观看视频| 蜜臀人妻一区二区三区| 国产精品视频久久一区| 激情三级在线观看视频| 欧美日韩亚洲综合国产人|