1879年,當(dāng)愛迪生測試的燈絲終于持久點(diǎn)亮?xí)r,他思考的下一個(gè)問題是:怎樣才能讓更多人用上電?白熾燈的誕生,并沒有立即讓全人類即刻享受到夜間生活的自由。在那個(gè)年代,只有摩根和范德比爾特家族才裝得起龐大的家用蒸汽發(fā)電機(jī)。直到1882年9月,愛迪生在紐約曼哈頓珍珠街鋪設(shè)了第一張電網(wǎng),僅用一座發(fā)電站,就能給一平方英里內(nèi)的普通住戶提供電能。無數(shù)人見證了這一歷史時(shí)刻,兩位美國記者這樣描述道:“昨天晚上,紐約市珍珠街的85戶家庭和商店內(nèi)外出現(xiàn)燈火輝煌的景象,400盞電燈點(diǎn)亮了整條街,改變了街坊居民夜晚的生活,也為人類文明史掀開了新的一頁?!?/span>每一項(xiàng)革命性的技術(shù)誕生后,人類都需要探尋技術(shù)走向“普惠”的方法。1947年晶體管橫空出世,但直到集成電路被發(fā)明,芯片才逐步推廣民用;1969年計(jì)算機(jī)網(wǎng)絡(luò)的雛形便已萌芽,但需要等到蒂姆·伯納斯-李在90年代定義萬維網(wǎng),互聯(lián)網(wǎng)才真正地走進(jìn)全世界的每一個(gè)角落。同樣,在AGI引領(lǐng)的第四次工業(yè)革命里,一個(gè)課題擺在行業(yè)先驅(qū)面前:如何讓主流大眾更快的用上AI?早在本輪AI浪潮爆發(fā)之前,“AI普惠”便是百度智能云的十六字方針——「深入行業(yè)、聚焦場景、云智一體、AI普惠」其中的核心目標(biāo)。但對(duì)于百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖來說,這個(gè)目標(biāo)在去年5月他剛接手百度智能云業(yè)務(wù)時(shí),呈現(xiàn)出來的是一種過于“碎片化”的圖景。 百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖 這種“碎片化”根源于傳統(tǒng)判別式AI的基因——針對(duì)每一個(gè)問題,都要生成一個(gè)能力來解決,通用性較差。這導(dǎo)致AI落地時(shí)出現(xiàn)了傳統(tǒng)軟件行業(yè)的固有頑疾——需求不夠標(biāo)準(zhǔn)化,項(xiàng)目制大行其道,乙方常常淪為高科技施工隊(duì)。沈抖回憶道:“那時(shí)候AI在不同的場景里面非常碎片化,做起來很累,很難找到能夠依靠規(guī)?;瘞?dòng)業(yè)務(wù)的場景?!?/span>而當(dāng)大模型開啟AGI的終局之路后,“AI普惠”終于能看到一個(gè)標(biāo)準(zhǔn)化和規(guī)?;那熬啊竽P偷耐ㄓ媚芰δ軌蚩鐖鼍皝斫鉀Q問題,如同電力一樣,發(fā)電廠和電網(wǎng)并不需要區(qū)分下游居民的需求到底是照明,還是制冷。通用端帶來的這一變化足以令人驚喜,沈抖定位大模型的價(jià)值在于把系統(tǒng)與人真正串聯(lián)起來,當(dāng)大模型成為應(yīng)用的底座之后,將從根本上改變開發(fā)的范式。大模型的加碼,讓天平從代碼能力驅(qū)動(dòng)、理解程序語言向創(chuàng)意驅(qū)動(dòng)、理解應(yīng)用需求一側(cè)傾斜,“AI普惠”在應(yīng)用供給端將極大豐富,人人皆可成為開發(fā)者的時(shí)代已經(jīng)到來。在推開智能革命的大門時(shí),百度攜帶了強(qiáng)大的先發(fā)優(yōu)勢——從算力層的AI芯片昆侖芯,到框架層的飛槳,到模型層的文心大模型,再到應(yīng)用層的工業(yè)、政務(wù)等產(chǎn)業(yè)應(yīng)用,百度“全?!眱?yōu)勢明顯,因此在「AI普惠」方面,業(yè)界需要百度率先趟出一條路來。即使過去互聯(lián)網(wǎng)時(shí)代下走過的每一步讓百度在全鏈條上都有布局,但面對(duì)大模型能力泛化下所展現(xiàn)的全新商業(yè)圖景,沈抖直言“以一家之力是絕對(duì)干不過來的”,在他看來生態(tài)的打造至關(guān)重要。一個(gè)更繁榮的應(yīng)用生態(tài)會(huì)將更多物種包容其中。第一類“物種”便是插件,OpenAI已經(jīng)打了頭陣,如同今天手機(jī)廠商與各類APP應(yīng)用之間相輔相成,大模型企業(yè)與插件之間也將呈現(xiàn)強(qiáng)相互依賴與增強(qiáng)的關(guān)系。第二類是大量的生態(tài)伙伴,“普惠”本身源于更好解決應(yīng)用問題,從技術(shù)到應(yīng)用的“最后一公里問題”,依賴于生態(tài)伙伴協(xié)助交付。沈抖給了很凝練的總結(jié),如果把前者視為是開發(fā)者生態(tài)的能力聚合,后者則是協(xié)助大模型做好面向應(yīng)用的直接交付,但還有第三類,就是把大模型當(dāng)成一種能力直接強(qiáng)化客戶現(xiàn)有服務(wù)。百度要把模型能力送到企業(yè)面前,是為了便利企業(yè)更好地把自己的服務(wù)能力送到客戶面前。在過去半年里,我們調(diào)研發(fā)現(xiàn)企業(yè)對(duì)于大模型的需求真實(shí)且強(qiáng)烈,“降本”和“提效”的渴望寫在每一個(gè)希望穿越周期的老板臉上。但對(duì)大多數(shù)人來說,接觸大模型的場景僅限于聊天機(jī)器人。如何在企業(yè)內(nèi)部落地幾十上百億參數(shù)的大模型,是一件令人興奮但又令人生畏的事情。而百度針對(duì)這個(gè)問題交出的第一張答卷,就是百度智能云千帆大模型平臺(tái)。千帆大模型平臺(tái)顧名思義,是一個(gè)提供各類模型和工具的“一站式平臺(tái)”,其核心目標(biāo)是幫助企業(yè)降低大模型的使用成本,因此千帆平臺(tái)覆蓋了從數(shù)據(jù)管理、模型訓(xùn)練、評(píng)估測試、落地部署等全流程開發(fā)環(huán)境和工具鏈,能夠最大程度地縮短企業(yè)使用大模型的學(xué)習(xí)曲線。為了滿多樣化的需求,考慮到不同模型有場景的適配性,千帆平臺(tái)不僅支持百度自家的文心大模型,還接入Llama2、ChatGLM、MPT、Falcon等四十多個(gè)大模型,是目前支持第三方模型最多的平臺(tái)。正如沈抖的觀察:“目前開源模型雖然很多,但不是每個(gè)模型都值得大家去試用,不然在早期會(huì)造成很大的資源浪費(fèi)。”所以千帆內(nèi)每一個(gè)模型的入庫,會(huì)綜合“模型效果、安全性、可商用”三個(gè)角度提前做好篩選。在試用千帆平臺(tái)時(shí),我們還可以看到百度智能云為“AI普惠”所進(jìn)行的諸多努力,比如平臺(tái)上有多達(dá)103款Prompt模板,涵蓋對(duì)話、編程、電商、翻譯等多個(gè)場景,可以迅速上手;再比如預(yù)置了41個(gè)高質(zhì)量的、有行業(yè)特色的數(shù)據(jù)集,客戶在做模型微調(diào)的時(shí)候,只要點(diǎn)幾個(gè)按鈕就可以完成微調(diào)、提高模型效果。這些努力的確擊中了下游企業(yè)的痛點(diǎn),千帆大模型平臺(tái)自3月27日開啟測試以來,月活企業(yè)數(shù)已近萬家,覆蓋金融、制造、能源、政務(wù)、交通等行業(yè)的400多個(gè)場景。百度則跟來自眾多垂直行業(yè)的上百家客戶進(jìn)入深度接觸,勾勒出企業(yè)的落地路徑和需求畫像。在9月5號(hào)舉辦的2023百度云智大會(huì)上,無數(shù)專家和客戶云集北京,沈抖代表百度智能云宣布了千帆大模型平臺(tái)的2.0全面升級(jí)。在千帆2.0平臺(tái)上,我們看到百度帶來了更多“AI普惠”的工具,比如大幅增強(qiáng)了平臺(tái)模型對(duì)中文的理解能力,全面提升了訓(xùn)練和推理性能,算力服務(wù)和安全能力也做了大幅度的提升。在云智大會(huì)上,百度智能云更是直接推出了針對(duì)數(shù)字政府、金融、工業(yè)、交通等四個(gè)領(lǐng)域的全面解決方案,他們的共同點(diǎn)是都基于大模型進(jìn)行了重構(gòu)。我們?cè)?023云智大會(huì)召開期間采訪了沈抖,此時(shí)正值文心一言剛剛面向全社會(huì)用戶開放,僅在第一天就足足回答了3342萬個(gè)問題,“文心一言App”更是登上AppStore免費(fèi)榜榜首。百度的大模型技術(shù)底座,在超預(yù)期的C端流量下經(jīng)受住了第一次“全民考驗(yàn)”。能頂住這一次流量大考,離不開過去半年在成本端的持續(xù)努力,沈抖給出了一個(gè)直觀的數(shù)據(jù),文心大模型的推理速度已經(jīng)較發(fā)布初期提升了 30 多倍,推理成本也實(shí)現(xiàn)了大幅下降,這都是百度能夠承載得了這么大的用戶量的主要原因。現(xiàn)在的百度稍顯從容,沈抖還打趣地說,“流量涌入是幸福的'煩惱’,可以來得更猛烈些”。當(dāng)然,對(duì)于大模型在B端的落地,沈抖在樂觀中也保持謹(jǐn)慎,他在訪談中坦言,很多客戶對(duì)大模型的能力上限、邊界、成本、交付、需求方式都還沒有統(tǒng)一認(rèn)知,在行業(yè)早期可能依然需要用項(xiàng)目制的方式來幫客戶理解它——百度看起來已經(jīng)做好了打這種陣地戰(zhàn)的準(zhǔn)備。潛在的困難,的確不會(huì)削弱宏大進(jìn)程里的每一份決心。在AGI這片新大陸被發(fā)現(xiàn)之后,全球科技海面上都是一副千帆競渡、百舸爭流的景象。因此“千帆”這個(gè)名字恰如其分——帶領(lǐng)同行者共同抵達(dá)彼岸,是每一輪技術(shù)革命里的先行者,都必須要承擔(dān)的歷史使命。站在新的科技樹面前,百度也有自己的星辰大海。他們一手握住大模型的技術(shù)端,一手是多年to C、to B產(chǎn)品端的開發(fā)經(jīng)驗(yàn),在這輪應(yīng)用端開發(fā)上一直強(qiáng)調(diào)著“AI原生思維”。打造AI原生產(chǎn)品,強(qiáng)調(diào)重構(gòu)而不是接入,比“AI普惠”本身更多了一些技術(shù)視角下獨(dú)有的理想主義。而提到百度的大模型戰(zhàn)略,則是to C、to B兩條腿走路。沈抖認(rèn)為,對(duì)話框式應(yīng)用一定不是大模型的最終產(chǎn)品形態(tài)。面向C端,百度已在積極研究可落地的產(chǎn)品形態(tài)和商業(yè)模式。基于大模型重構(gòu)C端產(chǎn)品,百度網(wǎng)盤、百度文庫重構(gòu)后用戶使用粘性、會(huì)員付費(fèi)率都有很大提高,文心一言APP、百度搜索,也布局了大模型應(yīng)用新入口。面向B端,則是通過打造大模型平臺(tái),服務(wù)好To B市場,“應(yīng)用上,無論誰的成功都是大模型的成功”。倒回到二十多年前,沈抖在清華讀研究生的方向就是人工智能,與當(dāng)前的方向“高度一致”。在百度多年,沈抖一直參與和負(fù)責(zé)核心業(yè)務(wù),2022年5月?lián)伟俣戎悄茉剖聵I(yè)群總裁后,很快就迎來了一次新的浪潮,在百度這艘潮流最前沿的航船上,沈抖在采訪中直言自己“很興奮,也很幸運(yùn)”。作為智能云業(yè)務(wù)的負(fù)責(zé)人,沈抖的視角往往會(huì)更深入一步。從應(yīng)用層向下深入大模型,一定繞不開更底層關(guān)于資源配置的思考,目前算力端已經(jīng)在從CPU云向GPU云遷移。而不論從何種角度出發(fā),成本優(yōu)化、算力部署、模式遷移,都會(huì)是來自技術(shù)與商業(yè)的雙重挑戰(zhàn)。在千帆競發(fā)的大航海時(shí)代,沈抖還有哪些思考?百度智能云還有哪些布局和規(guī)劃?我們把與沈抖的對(duì)話全文整理如下。大語言模型帶來產(chǎn)品端的想象,才剛剛開始 硅基研習(xí)社:探討技術(shù)奇點(diǎn)來臨總是一個(gè)令人興奮的話題,大模型狂飆30、100、200天的記錄,見證了情緒曲線的沖高與回落。當(dāng)我們看到大眾的熱情與好奇逐漸回歸冷靜,文心一言的開放數(shù)據(jù)又讓我們眼前一亮。 這一天對(duì)國內(nèi)大模型廠商或許有不一樣的意義,大模型能力繼續(xù)向前進(jìn)化,從技術(shù)到產(chǎn)品,圍繞產(chǎn)品端的競爭號(hào)角已然吹響。OpenAI讓我們看到了很多可能性,國內(nèi)大模型在產(chǎn)品形態(tài)演進(jìn)和商業(yè)模式摸索上,也一定會(huì)帶來更多類似移動(dòng)互聯(lián)網(wǎng)時(shí)代下的驚喜。而這變革的前夜,才剛剛浮露晨曦。 Q:近日外界對(duì)大模型的討論有所降溫,關(guān)注重心也從好奇轉(zhuǎn)向了務(wù)實(shí)落地。百度作為國內(nèi)第一家對(duì)外全面開放大模型C端應(yīng)用的公司,您怎么看待文心一言開放當(dāng)日的數(shù)據(jù)情況?是意料之中還是意料之外? 沈抖:當(dāng)天實(shí)際回答量達(dá)到了3342萬,其實(shí)比我們預(yù)期要高。數(shù)據(jù)是我從系統(tǒng)里直接截取的,發(fā)到群里后大家原封不動(dòng)地呈現(xiàn)給了外界,絕對(duì)真實(shí)。 而且用戶規(guī)模大、溝通輪數(shù)多也是這次的特點(diǎn)。整個(gè)過程中大家不是只問一兩句話就走了,而是經(jīng)過了多輪的對(duì)話,從這個(gè)角度看用戶的熱情還在。 Q:面對(duì)用戶大量涌入?yún)⑴c對(duì)話,百度在算力端做了什么準(zhǔn)備?成本和后臺(tái)的運(yùn)維能力怎么樣? 沈抖:大模型本身就是資源密集型的技術(shù)范式。當(dāng)天規(guī)模雖然大,但得益于我們?cè)谕评矶俗隽舜蠓鶅?yōu)化,推理速度相比3月文心一言開啟內(nèi)測提升了30多倍,成本大幅降低。但從訓(xùn)練到推理,技術(shù)進(jìn)步還沒有到天花板,成本會(huì)繼續(xù)降低。 其實(shí)擁有更多的用戶都是“幸福的煩惱”,算力資源是需要長期投入的,我們也有不錯(cuò)的算力儲(chǔ)備。 Q:借助這次文心一言開放,百度對(duì)C端的廣泛觸達(dá)才真正開始?;氐疥P(guān)于產(chǎn)品本身的思考,目前C端接觸到大模型相關(guān)產(chǎn)品多以對(duì)話的形態(tài)出現(xiàn),而產(chǎn)品端作為一切技術(shù)的匯集點(diǎn),您認(rèn)為大模型面向C端的價(jià)值會(huì)以什么樣的產(chǎn)品形態(tài)產(chǎn)生? 沈抖:產(chǎn)品端Robin(注:百度創(chuàng)始人、董事長兼 CEO 李彥宏)一直有個(gè)要求,一定要用AI原生思維來重構(gòu)所有產(chǎn)品,打造AI原生產(chǎn)品。不是接入,而是要把它變成AI原生,至于最后的交互形態(tài)是什么,還會(huì)不斷迭代。 而現(xiàn)在定性大模型的產(chǎn)品形態(tài)還尚早,對(duì)比移動(dòng)互聯(lián)網(wǎng)時(shí)期,大語言模型技術(shù)更強(qiáng)大,應(yīng)用的邊界范圍更寬泛,產(chǎn)品形態(tài)還遠(yuǎn)未到收斂的階段。 在移動(dòng)生態(tài)剛出現(xiàn)時(shí),可以用SoLoMo(Social、Local、Mobile,利用社交媒體、地理定位服務(wù)和移動(dòng)終端設(shè)備來提供更好的用戶體驗(yàn))做清晰地定義,但對(duì)于大模型,目前還無法用幾個(gè)關(guān)鍵詞去定義大語言模型產(chǎn)品。 Q:ChatGPT的產(chǎn)品形態(tài)和訂閱制的收費(fèi)模式,對(duì)于國內(nèi)的大模型產(chǎn)品設(shè)計(jì)和商業(yè)模式推進(jìn)是否有借鑒意義? 沈抖:OpenAI是技術(shù)驅(qū)動(dòng)的公司,用戶體驗(yàn)肯定不是它的強(qiáng)項(xiàng)。目前它的產(chǎn)品形態(tài)也只是早期狀態(tài),接下來產(chǎn)品迭代速度會(huì)非???。 面向C端商業(yè)化的機(jī)會(huì),國內(nèi)會(huì)有自己的變現(xiàn)方式,常見的是廣告、電商、游戲三大路徑,還會(huì)演變出新的路徑。 打個(gè)比方,如果你愿意一個(gè)月花兩千塊錢雇一個(gè)助理,那當(dāng) AI 能做助理 1/10 的事情,比如幫你制定旅游行程、預(yù)定機(jī)票和酒店、甚至調(diào)動(dòng)打車和外賣軟件等,你會(huì)不會(huì)愿意花兩百塊? 當(dāng)產(chǎn)品真正能創(chuàng)造價(jià)值后,用戶就愿意為它買單,但不一定是會(huì)員付費(fèi)的形式,也可能是交易傭金或其它方式。今天我們看得見的產(chǎn)品形態(tài)主要是對(duì)話,但將來會(huì)有更多的產(chǎn)品形態(tài),一款面向C端的產(chǎn)品,就是產(chǎn)品形態(tài)決定了變現(xiàn)的方式。 Q:支持產(chǎn)品發(fā)展的底層技術(shù)很關(guān)鍵,外界對(duì)于百度底座大模型的發(fā)展也非常關(guān)心,在技術(shù)端您目前關(guān)注的重點(diǎn)是什么? 沈抖:首要問題,是生成式AI能力向上還能摸多高,以及我們?cè)趺窗阉龅酶谩?/strong>雖然文心一言現(xiàn)在的評(píng)測結(jié)果還不錯(cuò),但它還遠(yuǎn)沒有到達(dá)優(yōu)秀人類語言理解的上限。如何快速提升這方面能力,肯定是我們第一位思考的問題。 其次是模型到底怎么能夠真正用起來、在哪些場景下能夠更高效地用起來。還有硬件端,整個(gè)模型訓(xùn)練的優(yōu)化是軟硬一體的優(yōu)化,其中涉及到的技術(shù)都很關(guān)鍵,萬卡集群的組織、效率、保障,真正底層的工作是大家看不到的,但又極其重要。 千帆大模型平臺(tái),讓用戶把模型真正用起來 硅基研習(xí)社:“AI普惠”的唯一目標(biāo),是讓大模型更好、更便捷地為大眾所用,如同使用水與電,成為一種理所當(dāng)然的習(xí)慣。而現(xiàn)在擺在所有互聯(lián)網(wǎng)大廠與AI企業(yè)的第一道門檻,是怎么讓用戶先用上大模型。 C端、B端、大型客戶、中小客戶,行業(yè)客戶的專有需求、業(yè)務(wù)提煉的通用需求,從客戶端到場景端只要你想排列組合,需求的復(fù)雜層次完全超乎想象。但這也正是重注大模型企業(yè)們所必須面對(duì)的問題,如何利用自有大模型與開源大模型去更好服務(wù)客戶,值得期待各家的排兵布陣策略。 Q:作為潛在用戶,以我們內(nèi)容公司為例,我們也想用大模型來幫助實(shí)現(xiàn)文章創(chuàng)作和內(nèi)容生成,千帆大模型平臺(tái)會(huì)如何幫助這些沒有配置程序員的公司來落地大模型應(yīng)用和降低成本? 沈抖:這是非常好的問題,事實(shí)上,這就是我們做千帆平臺(tái)的原因。 這次大模型在 B 端落地的特點(diǎn)是大公司先行,很多客戶都是金融機(jī)構(gòu)、能源機(jī)構(gòu)、教育機(jī)構(gòu)等。它們有一個(gè)明顯的特點(diǎn)是需要私有化部署,但這樣門檻很高,還要自己培養(yǎng)一堆技術(shù)人員迭代模型,可能會(huì)減慢大模型生效的時(shí)間。 反倒像中小公司,大概率不會(huì)排斥使用公有云。例如您提到的內(nèi)容創(chuàng)作需求,如果需要定制,可以在千帆上直接調(diào)用API,可以做封裝,也可以通過微調(diào)形成您的寫作風(fēng)格,幾乎零代碼打造自己的模型。我們做千帆的目的,就是要降低大模型的部署門檻、推動(dòng)大模型的廣泛應(yīng)用。 Q:千帆大模型平臺(tái)引入了四十多個(gè)第三方大模型,包括LLaMA、Falcon等,百度引入的目的是什么? 沈抖:在目前或相當(dāng)長一段時(shí)間內(nèi),不管是出于模型的場景適配性、還是客戶的心理需求,企業(yè)都希望能嘗試不同的模型。從這個(gè)角度來講,我們也需要提供第三方模型。 目前模型雖然很多,但我不認(rèn)為每個(gè)模型都值得大家去試用,不然在早期會(huì)是很大的資源浪費(fèi)。百度在開源模型篩選時(shí)會(huì)有自己的原則,要求選擇的模型相對(duì)比較優(yōu)秀、易用。 Q:這些三方開源大模型,它們與平臺(tái)的適配、優(yōu)化都是百度團(tuán)隊(duì)調(diào)好的嗎? 沈抖:對(duì),模型跟底層的GPU計(jì)算框架的適配都是我們的團(tuán)隊(duì)去做優(yōu)化。針對(duì)一些海外模型,千帆也會(huì)做中文能力增強(qiáng),然后提供升級(jí)版本供大家使用。 Q:千帆大模型平臺(tái)作為開放平臺(tái),目前已支持如LLaMA等第三方大模型的接入,未來會(huì)進(jìn)一步開放嗎?是會(huì)類似Hugging face那樣接入更多的數(shù)據(jù)集和開源模型,還是會(huì)繼續(xù)經(jīng)過選擇和調(diào)優(yōu)后上架呢? 沈抖:我們希望千帆大模型平臺(tái)能夠幫助大家降低大模型的使用門檻。無論是直接用或微調(diào),在現(xiàn)階段,我們會(huì)提供第三方的模型。千帆目前主要能力是兩條路徑: 第一條路徑是基于“文心一言”進(jìn)行發(fā)展。隨著“文心一言”的快速發(fā)展,支持大家用好“文心一言”是千帆最主要的職責(zé)之一。在大模型發(fā)展早期,模型有場景適配性,在不同場景下需要不同的模型來解決問題。因此,用戶也需要第三方的模型?,F(xiàn)在國內(nèi)模型數(shù)量很多很多,所以百度在支持模型的時(shí)候會(huì)有篩選原則。 第二條路徑是為客戶和開發(fā)者提供一站式的模型服務(wù)。即通過千帆平臺(tái)選擇模型、微調(diào)模型、部署模型,然后為客戶提供服務(wù),一站式地把模型從挑選到應(yīng)用的全生命周期完成,這也是千帆要比Hugging face做得更深的地方。 Hugging face確實(shí)廣度足夠,但它本身不是云平臺(tái),需要依賴AWS或者是其他云平臺(tái)去提供算力,計(jì)算資源不是它的優(yōu)勢。而且它不是端到端的,模型建設(shè)完以后要部署下去,此時(shí)如果規(guī)模不大的話用處就不大,規(guī)模大了推理成本又很關(guān)鍵。 這也是為什么,文心一言自發(fā)布以來一直在持續(xù)地進(jìn)化迭代,推理速度達(dá)到了原來的30多倍,推理成本也實(shí)現(xiàn)了大幅下降。 千帆大模型平臺(tái)不只是解決選模型的問題,而是要解決把模型真正用起來的問題,包括數(shù)據(jù)、訓(xùn)練、調(diào)優(yōu)、Prompt工程,以及應(yīng)用搭建等一系列問題,還要充分考慮到成本和效率。 Hugging face提供各種各樣的模型,卻不是一個(gè)純粹大模型的平臺(tái),而千帆是一個(gè)聚焦大模型的平臺(tái)。在未來一段時(shí)間里多模型并存的情況下,用戶需要更好的社區(qū)來討論、選擇模型,而我們基于希望大家真正用好大模型為出發(fā)點(diǎn),打造了千帆大模型平臺(tái)。 從IaaS到MaaS,從CPU云到GPU云,大模型將重塑云業(yè)務(wù) 硅基研習(xí)社:為什么“AI普惠”在今天具備了實(shí)現(xiàn)的可能性?大模型作為一種新的底層操作系統(tǒng),讓云業(yè)務(wù)從零散、瑣碎的項(xiàng)目狀態(tài)走向可通用、可規(guī)?;?,這不僅是給云業(yè)務(wù)帶來了新生,更是讓大家看到了走向AGI的曙光,讓AI變得更AI。 技術(shù)端的突破帶來了應(yīng)用層更多的可能性,毫無疑問,當(dāng)程序語言、代碼能力可以進(jìn)一步被自然語言所取代時(shí),技術(shù)封裝進(jìn)通用的一層越厚,越能支撐人創(chuàng)意的發(fā)揮。當(dāng)更多的個(gè)體參與其中,多樣化的物種必將塑造更繁榮的AI生態(tài)。 Q:正如之前您提到,應(yīng)用層產(chǎn)品形態(tài)會(huì)如何演進(jìn)有很多可能性,但目前看來,不論產(chǎn)品形態(tài)如何都需要調(diào)用大模型的API,請(qǐng)問未來的應(yīng)用是不是都要基于大模型來驅(qū)動(dòng)?沈抖:大模型會(huì)成為一個(gè)新時(shí)代的操作系統(tǒng),成為應(yīng)用的基礎(chǔ)底座。以往人和人打交道、人和機(jī)器打交道時(shí),使用語言作為溝通方式或指令,以此將系統(tǒng)和人串聯(lián)起來。以前電腦不懂自然語言,所以需要大家生成一套形式語言,再變成程序語言,通過程序員編寫程序代碼以實(shí)現(xiàn)交互。如今大語言模型“破解”了自然語言,它就既能理解自然語言,同時(shí)還能轉(zhuǎn)化成程序語言。應(yīng)用開發(fā)的范式就將發(fā)生根本變化,不再是代碼能力驅(qū)動(dòng),而是人的創(chuàng)意驅(qū)動(dòng)。人對(duì)應(yīng)用需求的理解會(huì)變得非常關(guān)鍵。另外,大模型也有把系統(tǒng)串聯(lián)起來的能力。像現(xiàn)在插件的出現(xiàn),也就是獨(dú)立完成某種能力、等待被調(diào)用的組件,大模型可以把插件組合起來完成一個(gè)特定的任務(wù)。這都會(huì)進(jìn)一步改變開發(fā)范式。Q:這一驅(qū)動(dòng)模式的轉(zhuǎn)變,云計(jì)算本身是否會(huì)產(chǎn)生巨大的變化?沈抖:技術(shù)發(fā)展的脈絡(luò)是越來越高級(jí)。換句話講,離底層越來越遠(yuǎn),越來越不需要關(guān)注細(xì)節(jié),封裝越來越好,有大量的人在背后把這些活給干了。這本身也是云貢獻(xiàn)的價(jià)值。早期的CPU云貢獻(xiàn)的價(jià)值,就是客戶不用自己買機(jī)器一個(gè)一個(gè)卡綁,它封裝得越來越好、可以在上邊直接用。隨著大模型時(shí)代到來,「AI 加速芯片」GPU 慢慢成為算力中心,算力增長速度遠(yuǎn)遠(yuǎn)超過 CPU。這會(huì)加速我們從 CPU 云向 GPU 云的切換。在 GPU 云的時(shí)代,最終我們會(huì)把云的能力進(jìn)一步封裝,不讓底層暴露出來,形成更高級(jí)的交互形態(tài),直接對(duì)接大模型的 API。今天的云還是給工程師開發(fā)的,交互形態(tài)還不夠徹底,但未來底層的工程師會(huì)減少,更多人會(huì)往上層走。這是一個(gè)大幅的變化。Q:我們看到云里面的廠商,包括移動(dòng)、電信,每一家關(guān)于AGI的技術(shù)儲(chǔ)備差距還是比較大的,云的行業(yè)格局會(huì)不會(huì)因?yàn)锳GI發(fā)生變化?聚焦到云業(yè)務(wù)本身,AGI會(huì)為百度智能云發(fā)展帶來什么驚喜?沈抖:如果沒有大模型的話,百度的云會(huì)打得非常吃力。我們一直強(qiáng)調(diào)「深入行業(yè)、聚焦場景、云智一體、AI普惠」,百度智能云想要做的就是把AI放到整個(gè)to B的服務(wù)中,讓它成為一個(gè)增長點(diǎn)。過去傳統(tǒng)的人工智能非常碎片化,所謂判別式AI,是針對(duì)一個(gè)問題生成一個(gè)能力,通用性很差。由于無法規(guī)模化,所以都是項(xiàng)目制,毛利非常低。這次生成式AI出來以后,我們看到它的通用性非常好,一下子可以解決很多問題。而且在應(yīng)用層往下基本都是統(tǒng)一的,哪怕需要微調(diào)、需要插件,都是標(biāo)準(zhǔn)化的動(dòng)作。這跟之前非常碎片化的AI應(yīng)用完全不一樣。這本身就是云業(yè)務(wù)的巨大變化,所謂的IaaS變成了MaaS。Q:在這個(gè)時(shí)代,大模型所對(duì)應(yīng)如此大的泛化能力要落到商業(yè)中,恐怕百度自己也是干不過來的,百度怎么看待自己在云整個(gè)生態(tài)中的位置,以及如何理解生態(tài)關(guān)聯(lián)的利益機(jī)制?沈抖:以百度一家之力是絕對(duì)干不過來的。不是恐怕干不過來,是絕對(duì)干不過來。首先,插件一定會(huì)是非常繁榮的生態(tài),它和大模型之間是相輔相成的。插件要從大模型中獲取流量,大模型又需要插件能力的支持,就像今天假設(shè)手機(jī)上沒有微信、抖音 ,用戶可能都不用它了。其次,在面向終端客戶的應(yīng)用上,無論是私有云部署、還是通過千帆這樣的平臺(tái)級(jí)方案,最終一定需要生態(tài)伙伴完成最后一公里交付的問題,比如金蝶、用友、軟通動(dòng)力等。它們有特別熟悉的客戶和業(yè)務(wù)流程,最終需求都會(huì)被它集成。總結(jié)一下,一是開發(fā)生態(tài)的能力聚合、二是幫大模型做交付的合作伙伴、三是用大模型強(qiáng)化自身服務(wù)的客戶,這都是生態(tài)。Q:如果大模型能打通所有插件解決問題,這是不是變相實(shí)現(xiàn)了互聯(lián)互通?沈抖:其實(shí)依然沒有。實(shí)際上,這些 APP 現(xiàn)在也都存在于同一個(gè)手機(jī)上、同一個(gè)應(yīng)用程序里,它照樣沒有實(shí)現(xiàn)互聯(lián)互通。將來在大模型基座上,美團(tuán)接進(jìn)來、滴滴接進(jìn)來,但它們還是沒有互通的。互聯(lián)互通應(yīng)該指的是數(shù)據(jù)打通,你的數(shù)據(jù)我可以訪問、我的數(shù)據(jù)你可以訪問。但在大模型底座下,我們只是愿意跟這個(gè)中樞對(duì)話,但我們插件彼此之間并沒有對(duì)話。Q:這種不互聯(lián)互通的情況,會(huì)不會(huì)導(dǎo)致開發(fā)者不能流暢地實(shí)現(xiàn)跨資源調(diào)度?這會(huì)是中國大模型開發(fā)生態(tài)的缺陷嗎?沈抖:我覺得主要的原因是沒放開、流量規(guī)模沒起來。比如文心一言一下子有了 3000 多萬的流量,開發(fā)者一算可能 1% 是自己的,那也有 30 萬的訪問了,他就會(huì)決定來干。Q:智能云業(yè)務(wù)這段時(shí)間一定也接觸了很多B端客戶,目前在客戶端布局上有遇到什么問題嗎?沈抖:大模型在早期有很大的不確定性,今天,很多客戶對(duì)大模型的能力上限、邊界、成本、交付、需求方式都還沒有統(tǒng)一認(rèn)知。短時(shí)間內(nèi),我們還不能保證客戶都到公有云上來,肯定還是先通過項(xiàng)目制的方式去做。但即使是這樣的項(xiàng)目制,也跟以前的項(xiàng)目制不一樣。比如我給你私有化部署了模型,它更像是 Windows 或者是 office,先是 95 版,接著是 97 版,又來了 2000 版,你得不斷的升級(jí)。看似我給你一個(gè)光盤裝到家里了,實(shí)際上你得不斷地訂閱。這跟原來搭建的也不一樣。Q:未來對(duì)百度智能云的發(fā)展增速有什么樣的預(yù)期?沈抖:百度智能云現(xiàn)在就接近兩百億的盤子,還相對(duì)比較小。在大模型的加持下,我們的客戶需求變得很旺盛,現(xiàn)在都忙不過來。不過要想真正讓用戶用起來、做好交付,還需要一個(gè)過程。國內(nèi)大語言模型,未來一年內(nèi)會(huì)加速收斂 硅基研習(xí)社:在AGI的“宇宙大爆炸”節(jié)點(diǎn),在大模型的產(chǎn)品形態(tài)演變前夜,在國內(nèi)大模型競爭的焦灼戰(zhàn)時(shí)點(diǎn),一個(gè)由遠(yuǎn)及近的視角也讓我們的思考回歸現(xiàn)實(shí)。國內(nèi)大模型入局者眾多,光大模型的名字可能就已過百。但一切美好展望都必須有落地檢驗(yàn)的一刻,行業(yè)還是通用、開源還是閉源,交卷的鈴聲已經(jīng)越來越近了。Q:現(xiàn)在大模型層出不窮,您怎么看大模型接下來的競爭格局?沈抖:今天市面上有非常多模型,但我認(rèn)為它們很多都會(huì)迅速消失。現(xiàn)在很多模型之所以還存在,是因?yàn)楹芏嗳诉€不知道它的好壞。反正誰也試不了,誰也用不了,一測排名還挺靠前。但隨著模型的放開,優(yōu)劣更容易評(píng)判了。今天這些做大模型的,你給他三千萬個(gè)問題輸進(jìn)去試試,估計(jì)一大半都得干趴下。這會(huì)導(dǎo)致流量的逐步集中,頭部模型更容易形成規(guī)模效應(yīng),從而進(jìn)一步分?jǐn)偰P脱邪l(fā)的成本,差距會(huì)進(jìn)一步拉大。Q:關(guān)聯(lián)到對(duì)開源的討論,開源一定程度上攤薄了企業(yè)部署大模型的成本,您對(duì)開源技術(shù)未來的發(fā)展怎么看?沈抖:如果不能很好地承擔(dān)起大模型成本,那么(開源)是無源之水、無根之木,終歸有一天會(huì)出問題。大模型跟傳統(tǒng)的開源軟件不同,傳統(tǒng)的開源軟件大部分情況下,一個(gè)人參與開源,其投入是他自己的時(shí)間成本,開發(fā)者寫代碼升級(jí)功能,就可以很快check in,提高開源軟件能力。但在大模型來看,LLaMA開源發(fā)布后,國內(nèi)無論多少人用LLaMA,他們開發(fā)的內(nèi)容始終無法check in回去,數(shù)據(jù)、算力、能力放不回去。因此,開源難度很大。如今很多大模型的開源玩法與傳統(tǒng)開源有一點(diǎn)相似的地方,用開源來吸引用戶的注意力,用戶可以在上面試用。但綜合來看,大模型生態(tài)的繁榮應(yīng)該以應(yīng)用和原生AI應(yīng)用作為支撐。Q:關(guān)于開源有沒有可能出現(xiàn)類似于Red Hat(開源解決方案供應(yīng)商,后被IBM收購)與IBM那種關(guān)系?互聯(lián)網(wǎng)企業(yè)巨頭有算力、研發(fā)的能力,但還有資金實(shí)力雄厚的企業(yè)其實(shí)也不甘心,他們就像傳統(tǒng)的IBM,可能會(huì)跟LLaMA結(jié)合起來去做,這樣就有資金在背后支持,同時(shí)行業(yè)也有數(shù)據(jù)和商業(yè)模式。沈抖:不排除這種可能性,開源肯定是會(huì)長期存在。大模型熱度高,國內(nèi)從大型企業(yè)、中小企業(yè)、初創(chuàng)企業(yè)都愿意為之進(jìn)行投入。大模型很貴,但對(duì)于大企業(yè)來講并不是無法克服的問題。一些企業(yè)自身的應(yīng)用場景很多,在這階段自研大模型的私有化部署需求存在,不論效果的好壞,至少不用依賴外部。現(xiàn)在的大模型可以做到60分來解決一大部分問題,難點(diǎn)在于是否能做到90分、95分。隨著大模型下一步的發(fā)展,對(duì)大語言模型感興趣的人會(huì)跨很多行業(yè),從人工智能、計(jì)算機(jī)到心理學(xué)等等,這是非常受關(guān)注的領(lǐng)域。我認(rèn)為開源不會(huì)成為非常完整閉環(huán)的商業(yè)模式,大概率不會(huì)是主流,但不妨礙開源會(huì)長期存在。全文完,感謝您的閱讀。
|