20號凌晨,Stability AI 發(fā)布了一個新的開源語言模型—— StableLM,該公司曾開發(fā)了 Stable Diffusion 圖像生成工具。這則新聞意味著它不再局限于圖像與視頻生成領(lǐng)域,將正式加入文本生成 AI 賽道。 StableLM 模型可以生成文本和代碼,并將為一系列下游應(yīng)用提供助力。下面的鏈接包含了 Stability AI 正在開發(fā)的 StableLM 系列語言模型,感興趣的小伙伴可以在下面 Huggingface 鏈接中嘗試與 70 億參數(shù)的模型聊天體驗(yàn)~ GitHub 地址: 模型官網(wǎng): Huggingface Chat 地址: StableLMStability AI 已經(jīng)將 StableLM 發(fā)布在 GitHub 上托管,開發(fā)人員可以直接使用或經(jīng)過微調(diào)后使用,同時還發(fā)布了用于研究的 RLHF-tuned 模型。StableLM 遵循著開源和對所有人開放的宗旨,將權(quán)力交還給開發(fā)者社區(qū),目前 StableLM 仍處于 Alpha 階段,只公布了 30 億和 70 億參數(shù)的模型,下一步將會推出 150 億到 650 億參數(shù)的更大參數(shù)模型。 據(jù)介紹,StableLM 是在一個基于 The Pile 建立的新實(shí)驗(yàn)數(shù)據(jù)集上訓(xùn)練的,但數(shù)據(jù)集規(guī)模比原來大三倍,含有 1.5 萬億個 Token 的內(nèi)容。 Stability AI 用下面的對話展示了他們的大模型 StableLM 生成文本與代碼的能力,對于英文的問答確實(shí)比較得心應(yīng)手,這些問答都是用 70 億個參數(shù)微調(diào)模型生成的: 而在與 StableLM 的對話體驗(yàn)中,小編還發(fā)現(xiàn)它可以用中文交流,能夠基本理解我的語義(雖然細(xì)節(jié)還是有問題)。比較可惜的是,比起 ChatGPT 來說,還是有點(diǎn)距離。它懂點(diǎn)中文,但不多,聊著聊著就開始胡言亂語…… Stability AI 仍強(qiáng)調(diào)了希望每個人都能夠參與其設(shè)計(jì)語言模型,像 StableLM 這樣的模型展示了致力于透明、易于訪問和支持性的 AI 技術(shù):
最后,Stability AI 對于生成回答所存在的潛在問題提醒如下: 任何預(yù)訓(xùn)練的大型語言模型,在沒有進(jìn)一步微調(diào)和強(qiáng)化學(xué)習(xí)的情況下,其回復(fù)內(nèi)容可能良莠不齊,包含有冒犯性的言論和觀點(diǎn)。隨著規(guī)模的擴(kuò)大、更好的數(shù)據(jù)、社區(qū)反饋和優(yōu)化,這種情況將有望得到改善。 小結(jié)不久之后,Stability AI 會發(fā)布完整的技術(shù)報(bào)告,同時未來也將啟動 RLHF 計(jì)劃,并與多個社區(qū)一起努力創(chuàng)建用于 AI Assistant 的開源數(shù)據(jù)集。隨著 StableLM 模型套件的推出,Stability AI 也仍在繼續(xù)推行讓基礎(chǔ) AI 技術(shù)對所有人可用的宗旨,雖然曾因涉嫌圖像侵權(quán)被眾多藝術(shù)家投訴過,但在去年年底也收獲了一筆融資,成為了 AI 內(nèi)容生成領(lǐng)域的獨(dú)角獸。 對于 AI 底層工具是否應(yīng)該開源,一直以來存在著激烈的爭論:
StableLM 的開源,向我們展示了 Stability AI 關(guān)于“AI by the people, for the people”的誠意。相比一些表現(xiàn)非常好但其黑盒運(yùn)行令普通用戶無從得知細(xì)節(jié)的模型,StableLM 的開源不僅有助于提升其透明度,也讓更多人有機(jī)會在其基礎(chǔ)上開發(fā)和創(chuàng)新。 隨著 AI 技術(shù)的不斷發(fā)展,有越來越多的人開始希望這些技術(shù)能夠真正地賦能大眾,釋放他們的創(chuàng)造力。而開源的 AI 技術(shù)恰有助于實(shí)現(xiàn)這一目標(biāo),因?yàn)樗?strong>使得技術(shù)更容易被改進(jìn)和擴(kuò)展,同時也使得更多人能夠共同參與到技術(shù)的開發(fā)和推廣中。進(jìn)一步讓更多人能夠從中受益,創(chuàng)造更多的價值。
|
|