【新智元導(dǎo)讀】大模型落地并不缺場景,卻往往因算力不夠遇難題。這家國產(chǎn)平臺從今日起,免費送百萬token。開發(fā)者們不僅可以對20多種開源模型精調(diào),還能用上極具性價比的多元算力。有人調(diào)侃,比起「造福人類」,大模型更應(yīng)該先呼吁「給我場景」。然而無問芯穹認(rèn)為,經(jīng)歷了互聯(lián)網(wǎng)時代的高速發(fā)展,中國市場并不缺應(yīng)用場景。大模型的落地難,癥結(jié)在于行業(yè)內(nèi)正在持續(xù)遭遇的算力難題。就在今天,無問芯穹發(fā)布了基于多芯片算力底座的無穹Infini-AI大模型開發(fā)與服務(wù)平臺,并宣布自3月31日起正式開放全量注冊,給所有實名注冊的個人和企業(yè)用戶提供百億tokens免費配額。開發(fā)者可以在這個平臺上體驗、對比各種模型能力和芯片效果,通過簡單拖拽各種參數(shù)按鈕的動作,就能精調(diào)出更貼合業(yè)務(wù)的大模型并部署在無穹Infini-AI上,再以非常優(yōu)惠的千token單價向用戶提供服務(wù)。目前,無穹Infini-AI已支持了Baichuan2、ChatGLM2、ChatGLM3、ChatGLM3閉源模型、Llama2、Qwen、Qwen1.5系列等共20多個模型,以及AMD、壁仞、寒武紀(jì)、燧原、天數(shù)智芯、沐曦、摩爾線程、NVIDIA等10余種計算卡,支持多模型與多芯片之間的軟硬件聯(lián)合優(yōu)化和統(tǒng)一部署。 第三方平臺或自定義訓(xùn)練、微調(diào)而來的模型也可以無縫遷移托管到無穹Infini-AI,并獲得細粒度定制化的按token計費方案。「我們對模型品牌和芯片品牌的覆蓋率還會持續(xù)提升,隨著時間的推移,無穹Infini-AI的性價比優(yōu)勢會越來越突出?!?/span>無問芯穹聯(lián)合創(chuàng)始人兼CEO夏立雪表示,未來無穹Infini-AI還將支持更多模型與算力生態(tài)伙伴的產(chǎn)品上架,讓更多大模型開發(fā)者能夠『花小錢、用大池』,持續(xù)降低AI應(yīng)用的落地成本。一個月前,同道獵聘在部分城市發(fā)布了AI驅(qū)動的數(shù)字人面試官產(chǎn)品,而且還有更多的AI功能正在籌備中,是由無問芯穹提供的彈性算力使用方案,并在無問芯穹的平臺上基于開源大模型微調(diào)而成。相比市面上的其他方案,實現(xiàn)了更高的推理加速,也大幅降低了新功能上線的成本。夏立雪表示,這一效果讓無穹團隊很有信心,所以除了開放全量注冊,也正式啟動了大算力需求方的測試邀請,提供更具性價比的算力、且在算法和硬件上更有縱深的算力優(yōu)化服務(wù)。想在成熟場景中應(yīng)用大模型的企業(yè),找到了算力但不會用,無法做出差異化的產(chǎn)品實現(xiàn)業(yè)務(wù)升級。想創(chuàng)造AI-Native應(yīng)用的企業(yè),算力成本難負擔(dān),工具鏈也不好用,產(chǎn)品啟動投產(chǎn)比不合理。自行訓(xùn)練模型的企業(yè),隨著業(yè)務(wù)的拓展,往往找不到也買不起所需體量的算力,業(yè)務(wù)運行成本過高。截至2023年年末,我國算力總規(guī)模達到每秒1.97萬億億次浮點運算(197E FLOPs),位居全球第二,算力規(guī)模近5年年均增速近30%。如此增速,為何行業(yè)內(nèi)仍然感到算力尤其難?背后的原因是,人工智能行業(yè)發(fā)展恰逢工程師人才紅利爆發(fā),加速了我國大模型行業(yè)的蓬勃發(fā)展,需求端「嗷嗷待哺」,而市面上仍存在大量未被收集和充分利用的算力資源,缺少一種足夠成體系的「大模型原生」商業(yè)模式,將算力供給轉(zhuǎn)化為滿足市場需求的產(chǎn)品和服務(wù)。「市面上有很多未被激活的有效算力,硬件本身差距在快速縮小,但大家在使用時總會遇到『生態(tài)問題』。」夏立雪說,這是因為硬件的迭代速度總是比軟件更慢、價格更高,軟件開發(fā)者不希望工作中出現(xiàn)除自身研發(fā)工作之外的其他「變量」,因而總是會傾向于直接使用有成熟生態(tài)的芯片。無問芯穹希望幫助所有做大模型的團隊「控制變量」,即在使用無問芯穹的算力服務(wù)時,用戶不需要也不會感覺到底層算力的品牌差異。成立不足一年的無問芯穹,何以能夠在這么短時間內(nèi)跑通多種計算卡上的性能優(yōu)化? 2022年底,大模型引發(fā)社會廣泛關(guān)注后,夏立雪和他的導(dǎo)師汪玉認(rèn)為,國內(nèi)整體算力水平距離國際先進還有明顯差距,光靠芯片工藝提升或是多元芯片的迭代已遠遠不夠,需要建立一個大模型生態(tài)系統(tǒng),讓不同模型能自動部署到不同硬件上,讓各種算力得到有效利用。一年后,無問芯穹宣布了在英偉達GPU和AMD等芯片上取得的優(yōu)化效果,實現(xiàn)了大模型任務(wù)2-4倍的推理速度提升。隨后,AMD中國宣布與無問芯穹達成戰(zhàn)略合作關(guān)系,雙方將攜手聯(lián)合提高商用AI應(yīng)用性能。兩年之后,無問芯穹在發(fā)布會上展示了其在10種芯片上的性能優(yōu)化數(shù)據(jù),在每張卡上都顯示已取得了目前行業(yè)內(nèi)最優(yōu)的性能優(yōu)化效果。「我們與各個模型、芯片伙伴都建立了強信任關(guān)系?!?/span>夏立雪對記者說:「一方面來自于我們面向大模型的計算優(yōu)化實力,另一方面無問芯穹非常注重保護伙伴的數(shù)據(jù)安全。無問芯穹會持續(xù)保持中立性,并且也不會與客戶產(chǎn)生利益沖突,這是我們業(yè)務(wù)開展的基礎(chǔ)?!?/span>做「大模型原生」的加速技術(shù)棧與系統(tǒng) Transformer統(tǒng)一了這一輪的模型結(jié)構(gòu),并且表現(xiàn)出持續(xù)取得應(yīng)用突破的趨勢?!?/span> 汪玉在開場發(fā)言中說:「從前在AI1.0時代我們做上一家公司,只能做很小一部分AI任務(wù)。今時不同往日,大模型結(jié)構(gòu)統(tǒng)一了,依靠生態(tài)建立起來的硬件壁壘正在『變薄』?!?/span> 得益于世界范圍內(nèi)正涌起的AI浪潮,以及中國市場的獨特機會,無問芯穹面對的是一次巨大的技術(shù)機遇。Transformer在設(shè)計時天然基于并行計算架構(gòu),規(guī)模越大的大模型帶來的智能效果越好,使用的人越多,其所需的計算量也越大。「無問芯穹正在做的是『大模型原生』的加速技術(shù)棧?!?/span>無問芯穹的聯(lián)合創(chuàng)始人兼CTO顏深根表示,大模型落地依賴算法、算力、數(shù)據(jù),還有系統(tǒng)。算力決定了大模型的速度,設(shè)計優(yōu)良的系統(tǒng)則能釋放出更多硬件潛力。無問芯穹的團隊曾搭建過數(shù)萬片GPU級的大規(guī)模高性能AI計算平臺,具備萬卡納管能力,并基于自運營集群成功搭建了云管系統(tǒng),已實現(xiàn)跨域多云間的統(tǒng)一調(diào)度。「在端側(cè),人們則更加傾向于快速將大模型的能力落到人機交互的界面上,提升實用體驗」。
無問芯穹聯(lián)合創(chuàng)始人兼首席科學(xué)家戴國浩認(rèn)為,未來,凡是有算力的地方,都會有AGI級別的智能涌現(xiàn)。 而每一個端上的智能來源,就是大模型專用處理器LPU。 大模型處理器LPU可以提升大模型在各種端側(cè)硬件上的能效與速度。 戴國浩在發(fā)布會上向觀眾展示了「一張卡跑大模型」,其團隊于今年1月初推出的全球首個基于FPGA的大模型處理器,通過大模型高效壓縮的軟硬件協(xié)同優(yōu)化技術(shù),使得LLaMA2-7B模型的FPGA部署成本從4塊卡減少至1塊卡,并且性價比與能效比均高于同等工藝GPU。未來,無問芯穹的端側(cè)大模型專用處理器IP,可以被模塊化地集成到各類端側(cè)芯片中。 未來,該IP將被集成于「無穹LPU」。戴國浩宣布,「無穹LPU」將于2025年面世。 「從云到端,我們要將軟硬件一體聯(lián)合優(yōu)化進行到底。大幅降低大模型在各個場景中的落地成本,讓更多好用的AI能力更好、更平價地走進更多人的生活」。
|