機(jī)器之心報道 編輯:張倩、袁銘懌
你是否有過這種體驗:某一天逛街的時候,腦子里突然冒出來一個好玩的故事,但你一時想不到更多的細(xì)節(jié),也沒有一塊完整的時間去把它寫出來? DeepMind 新出的一款劇本寫作 AI——Dramatron 或許可以幫到你。 Dramatron 是一個所謂的「聯(lián)合寫作」工具,你給它一句話(log line)描述中心戲劇沖突(比如 James 在有 Sam 鬼魂出沒的后院發(fā)現(xiàn)了一口井),它就能自動寫出標(biāo)題、角色、場景描述和對話。 可以說,Dramatron 和 ChatGPT 很像,但它的輸出更容易被改寫成電影腳本。為了評估 Dramatron 的可用性,DeepMind 邀請 15 位劇作家和編劇參加了長達(dá)兩小時的用戶學(xué)習(xí)課程,旨在讓他們與 Dramatron 一起編寫劇本。其中一位劇作家與 Dramatron 合作編寫了 4 個經(jīng)過大量編輯和重寫的劇本。加拿大 TheatreSports 公司已經(jīng)改編了 Dramatron 參與創(chuàng)作的劇本并將其搬上了舞臺,收到了非常積極的評價。 據(jù)報道,劇作家們表示,他們不會使用這個工具來創(chuàng)作一部完整的戲劇,并發(fā)現(xiàn)人工智能的輸出可能是公式化的。然而,他們認(rèn)為 Dramatron 將有助于世界的構(gòu)建,或者幫助他們探索改變情節(jié)元素或角色的其他方法。同時,人工智能也有助于他們「產(chǎn)生更具創(chuàng)意的想法」。 和很多生成式 AI 工具一樣,Dramatron 的背后也有一個大型語言模型作為支撐。這個模型名為 Chinchilla,參數(shù)量為 70B,在 1.4T token 的 MassiveText 數(shù)據(jù)集上進(jìn)行訓(xùn)練。不過,DeepMind 在論文中表示,OpenAI 的 GPT-3 等大模型也可以用來部署 Dramatron。 有趣的是,在 Dramatron 曇花一現(xiàn)的試用頁面上,DeepMind 明確表示,要使用 Dramatron,你需要一個 OpenAI API key。 看到這兒,OpenAI 聯(lián)合創(chuàng)始人Wojciech Zaremba發(fā)來了賀電。 不過,這個試用界面很快就關(guān)閉了,我們現(xiàn)在只能看到關(guān)于 Dramatron 的論文和簡介。 Dramatron 詳解 Dramatron 是一個使用大型語言模型通過「分層故事生成( hierarchical story generation)」方法分層生成腳本和劇本的系統(tǒng)。Dramatron 利用大型語言模型的優(yōu)勢,將精心設(shè)計的 prompt(見附錄 E)和具有結(jié)構(gòu)化生成能力的 prompt chaining 相結(jié)合,以實現(xiàn)整個腳本的長程一致性。這一過程比「扁平的」序列文本生成更具有故事連貫性。 從本質(zhì)上講,本文中的方法類似于分層神經(jīng)故事生成,但生成的腳本遠(yuǎn)遠(yuǎn)超過 1000 個單詞。故事的分層生成可以根據(jù)用戶提供的核心戲劇沖突摘要(也稱日志行(log line))生成整個劇本(有時是數(shù)萬字)。從輸入日志行開始,Dramatron 可以生成一個完整的劇本,包括標(biāo)題、角色列表、情節(jié)(即帶有設(shè)置和節(jié)奏的場景摘要列表)、位置描述和對話(見圖 1)。用戶可以在分層生成的任何階段進(jìn)行干預(yù)。通過這種方式,人類可以和 AI 在交互過程中共同編寫腳本。這個方法適用于任何可以將 prompt 作為輸入,然后預(yù)測下一個 token 的大型語言模型。 下圖 2 展示了 Dramatron 在研究中用到的兩種敘事結(jié)構(gòu):
Dramatron 使用幾個硬編碼的 prompt(即 input prefix)來指導(dǎo)大型語言模型。Prompt engineering 是用戶控制或影響大型語言模型的常用方法。如下圖 3 所示,prompt 與用戶提供的之前大型語言模型生成的輸入和 / 或輸出相連接,這種方法被稱為 prompt chaining,是一種算法 prompting。如上圖 1 所示,在整體結(jié)構(gòu)的較低層次,prompt 與來自整體結(jié)構(gòu)更高層次的輸出鏈接在一起。 更多細(xì)節(jié)請參見原論文。 論文鏈接:https:///pdf/2209.14958.pdf |
|