一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

一文探索“預訓練”的奧秘!

 yliu277 2023-04-16 發(fā)布于湖北

Datawhale干貨

作者:王奧迪,單位:中國移動云能力中心

2022年下半年開始,涌現(xiàn)出一大批“大模型”的優(yōu)秀應用,其中比較出圈的當屬AI作畫與ChatGPT,刷爆了各類社交平臺,其讓人驚艷的效果,讓AI以一個鮮明的姿態(tài),站到了廣大民眾面前,讓不懂AI的人也能直觀地體會到AI的強大。大模型即大規(guī)模預訓練模型,本文就和大家聊一聊 預訓練模型的起源與發(fā)展。

1. 前言

圖1 NLP模型開發(fā)領域的標準范式“pretrain finetune”

近年來,由于預訓練模型(Pretrained Models, PTMs)的蓬勃發(fā)展,“預訓練(pretrain) 微調(diào)(finetune)”成為了AI模型開發(fā)領域的標準范式。預訓練模型的作用可想而知,它極大推進了AI的落地,讓AI模型的開發(fā)從手工作坊模式走向工廠模式,快速適應AI市場的定制化需求。但它絕非一個空降神器,預訓練的研究最早起源于遷移學習。遷移學習的核心思想,即運用已有的知識來學習新的知識,通俗來說就是將一個預訓練的模型被重新用在另一個任務中。早期的預訓練模型主要基于有標簽數(shù)據(jù),預訓練模型的第一個浪潮發(fā)生在CV領域,得益于ImageNet[1]數(shù)據(jù)集中所富含的強大的視覺信息,其包含了上百萬張上千種類別的圖片,覆蓋了日常生活中的各種物體,在ImageNet上預訓練的模型(比如ResNet50)廣泛應用于圖像領域的各個下游任務,均取得了卓越的進展。而在NLP領域,由于下游任務的多樣性以及數(shù)據(jù)標注的復雜性,導致無法獲得一個像ImageNet這樣大規(guī)模的有標簽數(shù)據(jù),所以NLP領域嘗試使用自監(jiān)督學習的方法來獲取預訓練模型,自監(jiān)督學習的主要思想就是利用文本間的內(nèi)在聯(lián)系為監(jiān)督信號。通過自我監(jiān)督學習,可以利用大量未標記的文本數(shù)據(jù)來捕獲通用的語言知識。早期NLP領域的NLP模型主要是詞嵌入(word embedding)的研究,比如word2Vec[2],Glove[3]等,它們至今在各種NLP任務中仍發(fā)揮著重要的作用。2017年出現(xiàn)的Transformer結(jié)構(gòu)[4],給NLP領域預訓練模型的發(fā)展帶來了絕大的突破。Transformer的成功,也誘使CV領域加入了自監(jiān)督預訓練模型的賽道。如今,自監(jiān)督預訓練已經(jīng)成為當前人工智能研究的重點,幾乎所有的最新的 PTM都是采用類Transformer結(jié)構(gòu)與自監(jiān)督學習的方法,接下來介紹比較有代表性的自監(jiān)督預訓練語言模型。

圖2 預訓練的起源與發(fā)展[5]

2. 模型結(jié)構(gòu)

PTM成功的關鍵是自監(jiān)督學習和Transformer。本節(jié)從占主導地位的神經(jīng)架構(gòu) Transformer 開始。然后介紹兩個具有里程碑意義的基于 Transformer 的 PTM,GPT[6]和BERT[7]。所有后續(xù)的PTMs基本都是這兩個模型的變體。

2.1 Transformer

Transformer是一種序列到序列(seq2seq)架構(gòu),由編碼器(encoder)和解碼器(decoder)組成。說起Transformer,就不得不提它的注意力機制(Attention),對于注意力機制的原理解析可參考[5],這里主要總結(jié)下transformer中存在的三種注意力機制:

  1. Self-attention:存在于encoder中的注意力層中,使用前一層的輸出作為Q,K,V。給定一個詞,自注意力計算其與輸入序列中的所有單詞的注意力得分,來表示其他單詞對給定詞匯特征表示的貢獻程度。
  2. Mask-attention:存在于decoder階段,通過掩膜的手段,控制注意力得分的計算過程僅當前詞匯左側(cè)的詞參與。因為decoder是一個從左到右逐詞生成的過程。
  3. Cross-attention:同樣是存在于decoder階段,使用前一層的輸出作為Q,同時使用encoder的輸出作為K,V。交叉注意力機制的主要作用在于生成詞過程中能夠利用其輸入序列的信息,這在諸如機器翻譯和文本摘要的seq2seq任務中尤為重要。

圖3 Transformer網(wǎng)絡結(jié)構(gòu)示意圖[5]

2.2 GPT

GPT是第一個在Transformer結(jié)構(gòu)上應用自監(jiān)督學習目標的PTM,它僅使用了Transformer的decoder作為基礎結(jié)構(gòu),由于采用自監(jiān)督學習,所以刪去了cross-attention層。GPT是一個標準的自回歸語言模型,它的學習目標,是根據(jù)上文預測下一個詞,因此也往往更適合自然語言生成任務。

圖4 BERT與GPT的區(qū)別[5]

2.3 BERT

BERT是基于雙向 Transformer 結(jié)構(gòu)構(gòu)建,僅使用了Transformer的encoder結(jié)構(gòu)。這里的雙向主要是通過它的預訓練目標實現(xiàn)的,BERT設計了一個 masked language modeling (MLM) 預訓練任務,根據(jù)上下文來預測masked詞匯。“雙向”即體現(xiàn)在,在進行注意力計算時,BERT會同時考慮被遮蔽詞左右的詞對其的影響。BERT是一種自編碼語言模型,更適合自然語言理解任務。

2.4 后起之秀

在GPT和BERT之后,出現(xiàn)了很多基于它們的變體,圖5中羅列了目前預訓練模型家族的主要成員。一部分工作致力于改進模型架構(gòu)并探索新的預訓練任務;一部分工作致力于探索數(shù)據(jù)的豐富性,比如多語言和多模態(tài)PTMs;還有一部分工作致力于探索更多參數(shù)的模型以及PTM計算效率的優(yōu)化。

圖5 預訓練模型家族[5]

3. 預訓練任務

預訓練模型的主要目標是如何利用未標注語料來獲取通用知識,以便快速遷移到各種下游任務中。預訓練任務即學習目標的設計至關重要。前文也提到了GPT和BERT的預訓練任務Autoregressive language modeling和masked language modeling,它們也分別是自回歸語言模型和自編碼語言模型無法替代的預訓練任務,后續(xù)的一些PTMs中探索的新的預訓練任務均是在此基礎上追加的。下表中總結(jié)了目前一些常見的預訓練任務。對于單資源數(shù)據(jù)輸入(單語言純文本),往往從挖掘文本間詞匯、句子、篇章的內(nèi)在聯(lián)系設計新的預訓練任務;對于多資源數(shù)據(jù)輸入,比如多語言和多模態(tài)的預訓練模型,往往會從如何構(gòu)建不同語言和不同模態(tài)的統(tǒng)一的特征表示來考慮設計新的預訓練任務。

4. 總結(jié)

本文整體介紹了預訓練模型起源與發(fā)展,文章大部分內(nèi)容來自于論文[5],在此基礎上做了一些總結(jié)和梳理,感興趣的可以去閱讀原文。預訓練模型的發(fā)展無疑推進了AI的落地。近年來,隨著神經(jīng)網(wǎng)絡結(jié)構(gòu)設計技術逐漸成熟并趨于收斂,以及數(shù)據(jù)和模型參數(shù)規(guī)模的不斷增大,行業(yè)內(nèi)也掀起了“煉大模型”的熱潮,致力于打造AI領域的基石模型。而對于預訓練模型的應用,除了“pretrain finetune”,逐漸盛行了一種新的范式“pretrain prompt predict',致力于重構(gòu)不同的下游任務,打造大一統(tǒng)的多任務模型。歸根結(jié)底,大家其實都是在解決同一個問題:”如何快速有效地進行AI模型開發(fā)“,這也是AI領域一直以來研究的重要課題。

5. 參考文獻

[1] Deng J, Dong W, Socher R, et al. Imagenet: A large-scale hierarchical image database[C]//2009 IEEE conference on computer vision and pattern recognition. Ieee, 2009: 248-255.

[2] Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space[J]. arXiv preprint arXiv:1301.3781, 2013.

[3] Pennington J, Socher R, Manning C D. Glove: Global vectors for word representation[C]//Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP). 2014: 1532-1543.

[4] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.

[5] Han, Xu, et al. 'Pre-trained models: Past, present and future.' AI Open 2 (2021): 225-250.

[6] Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J]. 2018.

[7] Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.

[8] https://jalammar./illustrated-transformer/

[9] Yang Z, Dai Z, Yang Y, et al. Xlnet: Generalized autoregressive pretraining for language understanding[J]. Advances in neural information processing systems, 2019, 32.

[10] Song K, Tan X, Qin T, et al. Mpnet: Masked and permuted pre-training for language understanding[J]. Advances in Neural Information Processing Systems, 2020, 33: 16857-16867.

[11] Liu Y, Ott M, Goyal N, et al. Roberta: A robustly optimized bert pretraining approach[J]. arXiv preprint arXiv:1907.11692, 2019.

[12] Joshi M, Chen D, Liu Y, et al. Spanbert: Improving pre-training by representing and predicting spans[J]. Transactions of the Association for Computational Linguistics, 2020, 8: 64-77.

[13] Sun Y, Wang S, Li Y, et al. Ernie: Enhanced representation through knowledge integration[J]. arXiv preprint arXiv:1904.09223, 2019.

[14] Wei J, Ren X, Li X, et al. Nezha: Neural contextualized representation for chinese language understanding[J]. arXiv preprint arXiv:1909.00204, 2019.

[15] Lan Z, Chen M, Goodman S, et al. Albert: A lite bert for self-supervised learning of language representations[J]. arXiv preprint arXiv:1909.11942, 2019.

[16] Clark K, Luong M T, Le Q V, et al. Electra: Pre-training text encoders as discriminators rather than generators[J]. arXiv preprint arXiv:2003.10555, 2020.

[17] Lample G, Conneau A. Cross-lingual language model pretraining[J]. arXiv preprint arXiv:1901.07291, 2019.

[18] Huang H, Liang Y, Duan N, et al. Unicoder: A universal language encoder by pre-training with multiple cross-lingual tasks[J]. arXiv preprint arXiv:1909.00964, 2019.

[19] Xu Y, Li M, Cui L, et al. Layoutlm: Pre-training of text and layout for document image understanding[C]//Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2020: 1192-1200.

[20] Xu Y, Xu Y, Lv T, et al. LayoutLMv2: Multi-modal pre-training for visually-rich document understanding[J]. arXiv preprint arXiv:2012.14740, 2020.

[21] Radford A, Kim J W, Hallacy C, et al. Learning transferable visual models from natural language supervision[C]//International Conference on Machine Learning. PMLR, 2021: 8748-8763.

[22] Huo Y, Zhang M, Liu G, et al. WenLan: Bridging vision and language by large-scale multi-modal pre-training[J]. arXiv preprint arXiv:2103.06561, 2021.

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    男人的天堂的视频东京热| 精品人妻一区二区三区在线看 | 91偷拍与自偷拍精品| 青青操日老女人的穴穴| 粉嫩国产美女国产av| 国产免费黄片一区二区| 亚洲欧美日韩在线中文字幕| 精品国产91亚洲一区二区三区 | 欧美日韩国内一区二区| 日韩毛片视频免费观看| 好吊视频有精品永久免费| 欧美精品亚洲精品日韩专区| 亚洲午夜精品视频观看| 日韩一级毛一欧美一级乱| 伊人久久青草地综合婷婷| 高潮少妇高潮久久精品99| 亚洲精品美女三级完整版视频 | 日韩中文字幕欧美亚洲| 久久热这里只有精品视频| 国产成人av在线免播放观看av| 人妻精品一区二区三区视频免精| 久久热麻豆国产精品视频| 国产女性精品一区二区三区 | 日韩aa一区二区三区| 国内午夜精品视频在线观看| 最新日韩精品一推荐日韩精品| 99少妇偷拍视频在线| 欧美国产在线观看精品| 亚洲成人黄色一级大片| 在线观看免费视频你懂的| 国产精品亚洲综合色区韩国 | 午夜精品国产精品久久久| 欧美性欧美一区二区三区| 日本精品中文字幕在线视频| 国内胖女人做爰视频有没有| 国产免费黄片一区二区| 黄男女激情一区二区三区| 日韩人妻免费视频一专区| 午夜精品一区免费视频| 欧美韩日在线观看一区| 精品久久av一二三区|