作者:一號 編輯:美美 長文本之后,Kimi能找到新的“護城河”嗎? 過去的一周,由AI技術天才楊植麟的大模型初創(chuàng)企業(yè)月之暗面及其產(chǎn)品Kimi所帶來的連鎖反應,從社交媒體一路沖向了A股,帶動了一批“Kimi概念股”的大漲。這也是國內AI創(chuàng)業(yè)公司第一次真正意義上的“破圈”。 資本市場的關注,也讓Kimi迎來了用戶量的飆升,根據(jù)“AI產(chǎn)品榜(aicpb.com)”的數(shù)據(jù),Kimi智能助手在2024年2月份的訪問量達到了305萬,比上個月增長了107.6%,3月8日至3月14日的周訪問量更是達到了183萬,環(huán)比增加了45%。流量的激增,也讓Kimi在3月20日出現(xiàn)了宕機等異?,F(xiàn)象。 而這一次的爆火始于3月18日,月之暗面宣布其自研的Kimi智能助手在大模型上下文窗口技術上取得了新的突破,已支持200萬字超長無損上下文,并即日起開始產(chǎn)品內測。我們不禁要問,大模型能力這么多,為何長文本會成為引爆點? 為什么長文本是用戶的痛點? 對于大模型的長文本的能力,月之暗面的創(chuàng)始人楊植麟把它解讀為“新計算范式”,并認為通用的世界模型,是需要“長文本”的。 想象一下,如果你把一個大模型當做一個和你對話的人,它跟我們一樣,有短期記憶和長期記憶。而長期記憶就是它通過模型訓練得到的向量和參數(shù),你可以把這當成它的知識庫。而上下文就是它的短期記憶,當你在和它對話的時候,你們之間的對話內容就是以上下文窗口的形式提供給了大模型,要是你們的對話長度超過了這個它的上下文承載能力,那么超出的部分,大模型就會忘記。這從根本上就限制了大模型處理一些復雜多變的任務的可能。 為了讓大模型能夠完成更多的任務,或者說讓它不會在跟你對話過程中突然就沒辦法跟你繼續(xù)對話下去了的問題,拓展上下文就成了一件必須解決的事情。也只有這樣,AI才能在面對一些描述非常復雜,需要舉例幫助模型進行學習等的任務上表現(xiàn)得更好。如果以AGI為目標,那上下文長度的突破更是必須的。 而從市場上看,當前使用大語言模型的大多數(shù)人群,無論是泛科技行業(yè),還是從業(yè)者、愛好者或者學生,解讀論文、深度研報還有會議摘要等這些明確的應用場景,長文本能力都是剛需。因此,OpenAI的開發(fā)者關系經(jīng)歷Logan Kilpatrick就曾經(jīng)說過,“上下文就是大語言模型的下一個關鍵突破”。 因長文本而備受關注的Kimi 很明顯,月之暗面“登月”的第一步,從用戶需求的角度上來講,肯定是邁對了。早在2023年10月,Kimi剛剛上線的時候,它就以一個很有辨識度的方式進行了亮相。他們在官宣文章的標題上,別出心裁地用了“歡迎與Moonshot AI共同開啟Looooooooooong LLM時代”,通過加了很多個“o”的long,從視覺上就讓人印象深刻,明白這個大模型與“長”相關,然后文章的第一句就是“今天,Moonshot AI 帶著首個支持輸入 20 萬漢字的智能助手產(chǎn)品Kimi Chat 與大家見面了”。 這些宣發(fā)內容,都讓人能夠很快地將“長文本”和Kimi之間構建起聯(lián)系,通過這樣的營銷方式,月之暗面輕松地占領了用戶心智,從此要是聊起“長文本”,“月之暗面”就成了一個很容易被提到的公司。 在當時不?!熬怼钡拇竽P褪袌錾?,新模型不斷冒出,而絕大部分的模型介紹都有這么一套標準動作:公布模型參數(shù)、模型是開源還是封閉的、公布測試集成績,體現(xiàn)自己成績有多好,然后就是一些業(yè)內人士的介紹或評測文章。 雖然數(shù)據(jù)清晰,但如果是面向大眾市場,顯然這些晦澀難懂的參數(shù)和技術詞語,只能是自嗨,遠不及一個直白的特點更讓人印象深刻。因此月之暗面用這樣的具有辨識度的方式,很輕松地就從一眾大模型中脫穎而出,輕松地贏得了普通用戶的心。 而且在后續(xù)的宣發(fā)中,月之暗面也在不斷重復和強調kimi的長文本能力,直到最近,它所做的突破也是在長文本這個能力上。因此,當用戶將長文本=Kimi的時候,除非競爭對手擁有碾壓級的實力,否則都很難威脅到Kimi在用戶心中的地位。 但“長文本”真的能保Kimi永久平安嗎? 長文本成不了Kimi的“護城河” 同樣在長文本上做文章的,在海外,還有一家名為Antropic的公司。作為被公認的OpenAI最強大的對手,他們的大模型Claude的殺手锏就是長文本。在其初代模型推出時,就支持100k token的上下文,可以直接處理5萬字,這也讓它一直在整體性能劣于OpenAI的情況下,也能保有一群核心粉絲。 然而這種優(yōu)勢也并未能保持太久。去年11月,OpenAI在Dev Day上發(fā)布了GPT-4 Turbo,支持128k的上下文,這讓Antropic陷入了危機,不得不緊急推出Claude 2.1,將上下文從100k提升到了200k。但后來被人進行了探針測試,顯示它只是支持了這樣的長度,但并未記住其中的內容,使得它緊急打了補丁。而這個補丁,僅僅只是一句Prompt。 今年2月,谷歌的Gemini 1.5則直接將上下文推到了100萬。種種跡象都表明,長文本能力的“護城河”已經(jīng)在變淺。就在前段時間,Antropic號稱超越GPT-4的“世界最強大模型”Claude 3也放棄了在長文本上開卷,依然只支持200k的上下文,轉而在其他能力上進行了升級。 同樣,在國內,Kimi爆火之后,“長文本”的需求也被大廠看到了。很快,阿里巴巴宣布通義千問重磅升級,向所有人免費開放1000萬字的長文檔處理功能,成為了全球文檔處理容量第一的AI應用;緊接著,百度的文心一言將在下個月開放200萬-500萬字的長文本能力;360智腦也正式內測500字長文本處理能力。 據(jù)新浪科技獲得的數(shù)據(jù),Kimi當前每日獲客成本高達20萬元。面對大廠在長文本能力上的集體圍剿,作為AI創(chuàng)業(yè)公司的月之暗面,在資金還有算力資源上,都難以招架。因此,盡管當前月之暗面仍有足夠的“忠粉”,但當熱情褪去,若月之暗面還未挖出一條新的“護城河”,恐怕難逃困境。 作為“堅定的AGI信徒”,楊植麟也有過這樣的判斷,“獨特價值是你增量的智能。要抓住這個點,智能永遠是最核心的增量價值。如果你這個產(chǎn)品最核心價值只有10%-20%來自于AI,就不成立”。 因此,究竟“智能”能否成為Kimi新的“護城河”,我們只能拭目以待。 |
|