一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

這篇科普讓你Get所有大模型的核心知識(shí)點(diǎn)

 奧莉芙小異 2023-11-25 發(fā)布于江西
圖片

科普Get所有

大模型知識(shí)點(diǎn)

大模型

核心知識(shí)點(diǎn)

圖片
圖片
圖片

前言

ChatGPT-4的發(fā)布在各個(gè)領(lǐng)域引起了巨大的轟動(dòng),因?yàn)樗谌斯ぶ悄芗夹g(shù)中達(dá)到了一個(gè)新的高度。從ChatGPT發(fā)布以來,國內(nèi)外都迎來了新一輪大模型浪潮。那么,有科技小白會(huì)問:

GPT就是大模型嗎?

ChatGPT和大模型之間是什么關(guān)系?

大模型現(xiàn)狀發(fā)展如何?

本篇文章將帶來,關(guān)于大模型的所有知識(shí)點(diǎn)。

核心知識(shí)點(diǎn)

AI 大模型

AI大模型是“人工智能預(yù)訓(xùn)練大模型”的簡(jiǎn)稱,一種機(jī)器學(xué)習(xí)模型,包含了“預(yù)訓(xùn)練”和“大模型”兩層含義,二者結(jié)合產(chǎn)生了一種新的人工智能模式。即模型在大規(guī)模數(shù)據(jù)集上完成了預(yù)訓(xùn)練后無需微調(diào),或僅需要少量數(shù)據(jù)的微調(diào),就能直接支撐各類應(yīng)用。

圖片

大模型一般指1億以上參數(shù)的模型,但是這個(gè)標(biāo)準(zhǔn)一直在升級(jí),目前萬億參數(shù)以上的模型也有了。大語言模型(Large Language Model,LLM)是針對(duì)語言的大模型。

2021年8月,李飛飛、Percy Liang等百來位學(xué)者聯(lián)名發(fā)布了文章:On the Opportunities and Risks of Foundation Models[1],提出“基礎(chǔ)模型”(Foundation Models)的概念:基于自監(jiān)督學(xué)習(xí)的模型在學(xué)習(xí)過程中會(huì)體現(xiàn)出來各個(gè)不同方面的能力,這些能力為下游的應(yīng)用提供了動(dòng)力和理論基礎(chǔ),稱這些大模型為“基礎(chǔ)模型”。簡(jiǎn)單理解就是智能化模型訓(xùn)練的底座。具體應(yīng)用場(chǎng)景不同分為小模型和大模型。

AI大模型的發(fā)展歷程

大模型也從2012年的萌芽期,發(fā)展到2016年的AI1.0時(shí)期,再到2022年ChatGPT帶來的AI2.0時(shí)期,模型參數(shù)均較前一代有數(shù)量級(jí)的飛躍,如OpenAI最新發(fā)布的多模態(tài)預(yù)訓(xùn)練大模型GPT-4約有超過2000億參數(shù),谷歌最新推出“通才”大模型PaLM-E,擁全球已公開的最大規(guī)模的5620億參數(shù),能夠表現(xiàn)出更優(yōu)秀的性能和應(yīng)用價(jià)值。目前,國內(nèi)AI大模型研發(fā)和應(yīng)用領(lǐng)域也正迎來高速發(fā)展熱潮,科技部新一代人工智能發(fā)展研究中心也隨即發(fā)布了《中國人工智能大模型地圖研究報(bào)告》,各類 AI 大模型產(chǎn)品層出不窮,“千模大戰(zhàn)”已經(jīng)打響。

AI大模型可以做什么

AI大模型可以學(xué)習(xí)和處理更多的信息,比如圖像、文字、聲音等,也可以通過訓(xùn)練,完成各種復(fù)雜的任務(wù)。比如智能語音助手和圖像識(shí)別軟件都會(huì)用到AI大模型。

國內(nèi)外有哪些大模型

圖片

01

國外公司

OpenAI:OpenAI是一家人工智能研究公司,擁有多個(gè)大型語言模型,包括GPT等。

Google:Google擁有很多大型深度學(xué)習(xí)模型,包括BERT、Transformer等。

Facebook:Facebook擁有很多大型深度學(xué)習(xí)模型,包括XLM-R、RoBERTa等。

Microsoft:Microsoft擁有很多大型深度學(xué)習(xí)模型,包括Turing-NLG、DialoGPT等。

特斯拉:成立X.AI公司,為了探索宇宙的奧秘

蘋果:正式官宣加入大模型陣營,建立自己的框架來創(chuàng)建大語言模型“Ajax”,蘋果還創(chuàng)建了一個(gè)聊天機(jī)器人服務(wù)“Apple GPT”,股價(jià)再次突破新高

02

國內(nèi)公司

    一面狂熱,一面冷峻是最好的形容。在過去的幾個(gè)月里,各大廠相繼出招,先是3月16日,百度率先發(fā)布“文心一言”,期望對(duì)標(biāo)ChatGPT;再到阿里巴巴旗下超大規(guī)模語言模型“通義千問”開放內(nèi)測(cè),萬維和商湯科技分別發(fā)布大模型產(chǎn)品;創(chuàng)新工場(chǎng)CEO李開復(fù)、前搜狗CEO王小川、前京東AI掌門人周伯文、前美團(tuán)聯(lián)合創(chuàng)始人王慧文等行業(yè)大佬紛紛宣布下場(chǎng),國產(chǎn)大模型賽道競(jìng)爭(zhēng)激烈。

    大模型的建造離不開綜合算力資源算法人才、數(shù)據(jù)積累及產(chǎn)品先發(fā)幾大核心要素。事實(shí)也正是如此,只有大廠才有大量資金和人才發(fā)展算力、算法、數(shù)據(jù),也最有機(jī)會(huì)率先落地大模型。

圖片
圖片

專業(yè)名詞大全

圖片

1. 算法:類比碳基物種,硅基物種的大腦就是模型。我們現(xiàn)在說的算法(比如Transformer)代表大腦(模型)的能力,Transformer的出現(xiàn)確實(shí)極大程度地推動(dòng)了AI的發(fā)展。但現(xiàn)階段,在處理多模態(tài)數(shù)據(jù)時(shí)還有很大挑戰(zhàn),在算法層面未來一定會(huì)有新的突破。

2、模型參數(shù):一個(gè)剛出生的人類幼崽隨著年齡的增長,大腦本身在增長,模型參數(shù)的數(shù)量增加可以類比人類大腦本身的成長和成熟;隨著人類幼崽成長中接觸的事物增加,大腦的認(rèn)知在改變,參數(shù)的數(shù)值可以類比人類利用外界信息給自己構(gòu)建的認(rèn)知。

3、訓(xùn)練數(shù)據(jù):人類成長過程中對(duì)認(rèn)知的構(gòu)建,70%是通過視覺,20%是通過聽覺,其他包括味覺、觸覺、嗅覺等等,通過這些感官接受這個(gè)世界的信息來構(gòu)建對(duì)世界的了解。模型的訓(xùn)練數(shù)據(jù)某種程度類比于這些信息,你讓模型看到了多少和什么質(zhì)量的數(shù)據(jù),決定了他未來的認(rèn)知,即參數(shù)的數(shù)量和數(shù)值。

4、Token我們常常會(huì)聽到Token這個(gè)詞,Token的概念相當(dāng)于文字,一個(gè)中文文字對(duì)應(yīng)一個(gè)token,比如冰激凌,對(duì)應(yīng)三個(gè)token:冰+激+凌;一個(gè)英文的字符對(duì)應(yīng)一個(gè)token,比如icecream,對(duì)應(yīng)兩個(gè)token:ice+cream。

5、175B、60B、540B等:這些一般指參數(shù)的個(gè)數(shù),B是Billion/十億的意思,175B是1750億參數(shù),這是ChatGPT大約的參數(shù)規(guī)模。

6、強(qiáng)化學(xué)習(xí):(Reinforcement Learning)一種機(jī)器學(xué)習(xí)的方法,通過從外部獲得激勵(lì)來校正學(xué)習(xí)方向從而獲得一種自適應(yīng)的學(xué)習(xí)能力。

7、 基于人工反饋的強(qiáng)化學(xué)習(xí)(RLHF):(Reinforcement Learning from Human Feedback)構(gòu)建人類反饋數(shù)據(jù)集,訓(xùn)練一個(gè)激勵(lì)模型,模仿人類偏好對(duì)結(jié)果打分,這是GPT-3后時(shí)代大語言模型越來越像人類對(duì)話核心技術(shù)。

8、涌現(xiàn):(Emergence)或稱創(chuàng)發(fā)、突現(xiàn)、呈展、演生,是一種現(xiàn)象。許多小實(shí)體相互作用后產(chǎn)生了大實(shí)體,而這個(gè)大實(shí)體展現(xiàn)了組成它的小實(shí)體所不具有的特性。研究發(fā)現(xiàn),模型規(guī)模達(dá)到一定閾值以上后,會(huì)在多步算術(shù)、大學(xué)考試、單詞釋義等場(chǎng)景的準(zhǔn)確性顯著提升,稱為涌現(xiàn)。

9、泛化:(Generalization)模型泛化是指一些模型可以應(yīng)用(泛化)到其他場(chǎng)景,通常為采用遷移學(xué)習(xí)、微調(diào)等手段實(shí)現(xiàn)泛化。

10、微調(diào):(FineTuning)針對(duì)大量數(shù)據(jù)訓(xùn)練出來的預(yù)訓(xùn)練模型,后期采用業(yè)務(wù)相關(guān)數(shù)據(jù)進(jìn)一步訓(xùn)練原先模型的相關(guān)部分,得到準(zhǔn)確度更高的模型,或者更好的泛化。

11、指令微調(diào):(Instruction FineTuning),針對(duì)已經(jīng)存在的預(yù)訓(xùn)練模型,給出額外的指令或者標(biāo)注數(shù)據(jù)集來提升模型的性能。

12、思維鏈:(Chain-of-Thought,CoT)。通過讓大語言模型(LLM)將一個(gè)問題拆解為多個(gè)步驟,一步一步分析,逐步得出正確答案。需指出,針對(duì)復(fù)雜問題,LLM直接給出錯(cuò)誤答案的概率比較高。思維鏈可以看成是一種指令微調(diào)。

圖片

關(guān)注 AI 森學(xué)長

普及AI知識(shí)和工具

分享有趣、生動(dòng)、易懂的AI知識(shí)

從入門到精通,提升10倍生產(chǎn)力

幫助你成為AI受益者

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多

    欧美在线视频一区观看| 99久只有精品免费视频播放| 两性色午夜天堂免费视频| 亚洲内射人妻一区二区| 久久这里只精品免费福利| 日韩精品一区二区三区含羞含羞草| 青青操视频在线观看国产| 国产精品午夜性色视频| 免费观看一区二区三区黄片| 欧美精品久久99九九| 婷婷伊人综合中文字幕| 超薄丝袜足一区二区三区| 国产传媒高清视频在线| 国产av一区二区三区麻豆| 一区二区三区人妻在线| 亚洲女同一区二区另类| 色婷婷在线精品国自产拍| 一区二区日本一区二区欧美| 国产福利一区二区三区四区| 日韩三极片在线免费播放| 天堂网中文字幕在线观看| 九九热视频网在线观看| 久久午夜福利精品日韩| 国产精品香蕉一级免费| 熟女乱一区二区三区丝袜| 高潮少妇高潮久久精品99| 亚洲精品成人午夜久久| 日韩亚洲精品国产第二页| 久久99热成人网不卡| 亚洲精品国产美女久久久99| 久久精品偷拍视频观看| 欧美一区二区三区喷汁尤物| 亚洲国产欧美精品久久| 草草草草在线观看视频| 日本高清中文精品在线不卡| 国产不卡最新在线视频| 国产一区二区三区四区中文| 亚洲精品高清国产一线久久| 久久免费精品拍拍一区二区| 九七人妻一区二区三区| 厕所偷拍一区二区三区视频|