LLM+客服的真實(shí)案例 文/王子威@零售威觀察 橫空出世的大語言模型(LLM)給商業(yè)帶來無限暇想,看起來,客服這種人力密集、高流失率的行業(yè)似乎是LLM非常好的落地場景。 但是,在真正落地時,可能并沒有想象中的容易,我們不妨來看看知名消費(fèi)品牌絲芙蘭(Sephora)是如何一步步調(diào)整自己的客服機(jī)器人,以及一個沒有調(diào)整好的客服機(jī)器人是如何瘋狂翻車的。 11月末,絲芙蘭分享了它在智能客服領(lǐng)域的實(shí)踐路徑,圖片來自其分享PPT。 第一版,絲芙蘭直接將LLM接入客服,其優(yōu)勢在于開發(fā)便捷,消費(fèi)者只要開始提問就可以激活LLM。問題也非常顯著,那就是大模型的幻覺(Halluciation),而且也無法將商品推薦限定于絲芙蘭的產(chǎn)品。 第一版可以理解為“套殼”的邏輯,在享受LLM的自然語言理解能力以后,就要面對LLM胡說八道的問題了。 第二版就要解決問題了,絲芙蘭選擇了檢索增強(qiáng)生成技術(shù)(RAG),相當(dāng)于為LLM外掛了一個絲芙蘭的產(chǎn)品庫、產(chǎn)品知識庫。 從操作角度看,消費(fèi)者的提問不是直接進(jìn)入LLM,而是先進(jìn)入相關(guān)產(chǎn)品檢索,然后系統(tǒng)會將消費(fèi)者的問題和對應(yīng)產(chǎn)品一起發(fā)給LLM,這就使得LLM可以聚焦于相關(guān)產(chǎn)品。 第二版確實(shí)解決了第一版的問題,不過也出現(xiàn)了幾個挑戰(zhàn): 首先,系統(tǒng)可能會出現(xiàn)遺忘問題,即檢索只會回復(fù)最近的問題,而忘記之前的溝通歷史; 其次,部分回復(fù)可能會有問題,例如你問A1產(chǎn)品的問題,但是系統(tǒng)可能回復(fù)你A2產(chǎn)品的信息,主要是因?yàn)檫@兩個產(chǎn)品的關(guān)鍵字可能非常接近; 再次,在消費(fèi)者眼中,系統(tǒng)總是在推薦產(chǎn)品,這可能帶來不好的體驗(yàn)。 第三版又在第二版上進(jìn)行了更新,增加了一個預(yù)處理器,也就是說,消費(fèi)者的提問先進(jìn)入預(yù)處理器,由LLM判斷是否需要商品推薦,如果需要,才將信息推送到RAG,不然就直接進(jìn)行回復(fù)。 第三版更新除了繼承了第二版的全部優(yōu)點(diǎn)以外,也出現(xiàn)了一個新挑戰(zhàn),那就是有時候需要LLM直接進(jìn)行回復(fù),這就會出現(xiàn)第一版的一些問題。 第四版增加了后置處理器(Post-Processor),也就是在第三版的基礎(chǔ)上,所有要輸出給消費(fèi)者的回答都會經(jīng)過后置處理器的處理,和預(yù)處理器類似,后置處理器也包括啟發(fā)式邏輯和LLM智能體,通過這兩個體系來處理各類信息。 系統(tǒng)變復(fù)雜后,就會產(chǎn)生新的問題,例如當(dāng)大量消費(fèi)者進(jìn)行溝通時,系統(tǒng)的回復(fù)會被拖慢:在可靠性提升的同時,系統(tǒng)已經(jīng)不再簡單便捷了。 還有一位用戶也拿雪佛蘭的客服開起了玩笑,他讓智能客服幫自己算價格,不用說,做數(shù)學(xué)題這種事情是LLM最不擅長的了……對,即使是GPT-4也算不明白。 如果說不會算數(shù)是LLM的通病,那么雪佛蘭的客服還曾經(jīng)給客戶推薦了競品車……用戶要求客服提供“一款可靠的,不會貶值的品牌”,要求雪佛蘭客服推薦一個廠商,于是雪佛蘭客服洋洋灑灑寫一篇,推薦了豐田、本田和斯巴魯——就是沒有推薦自己。 |
|