作者:尤鳳凱, 京東商城研發(fā)-交易平臺-商品研發(fā)負責人。2010年加入京東,先后參與設計研發(fā)京東第一代監(jiān)控、消息、EDM等系統(tǒng)。12年開始致力于商品系統(tǒng)SOA化、商品系統(tǒng)的持續(xù)架構(gòu)演進?,F(xiàn)主要負責商品中臺及組件化建設。 商品,黃金交易流程最基礎、最核心的環(huán)節(jié),無商品不電商。商品數(shù)據(jù)無處不在,商家(采銷、供應商)發(fā)布管理、供應商下采購單、倉儲配送、促銷、搜索、商詳頁展現(xiàn)、購物支付、財務結(jié)算、售后服務等,都離不開商品。商品信息要準確傳導于京東整個供應鏈的各節(jié)點,必須要有一套穩(wěn)健、可靠的商品服務體系支撐。
原本并沒有統(tǒng)一的商品服務及存儲。DBA搭建了一套包含若干層級的SqlServer數(shù)據(jù)庫復制結(jié)構(gòu),各系統(tǒng)從各級從庫讀取數(shù)據(jù)。復制延遲嚴重的時候,超過12小時,從庫還沒有更新,嚴重影響用戶體驗。寫入口不止一個,獲取到寫賬號就可以寫入。erp商品管理系統(tǒng)、POP商品系統(tǒng)、BIP甚至也開發(fā)了一個商品管理系統(tǒng),都在寫同一個庫的同一套表,數(shù)據(jù)一致性無法得到保障。在那個階段京東的訂單量、用戶量相對較少,基于數(shù)據(jù)庫的架構(gòu)一定程度上也能支撐日常流量,但是無法應對大型促銷活動。 在此背景下,2012年3月商品組從網(wǎng)站組獨立出來,孫歌臨危受命組建團隊,啟動商品技術架構(gòu)升級項目。京東618年中狂歡購物節(jié),系統(tǒng)(特別是0點)會承受平時無法比擬的壓力。2012年之前的大促都會出現(xiàn)系統(tǒng)問題系統(tǒng)經(jīng)常出現(xiàn)問題,甚至圖書搶購活動時直接系統(tǒng)宕機。基于數(shù)據(jù)庫提供讀服務的架構(gòu),顯然已經(jīng)無法支撐業(yè)務前行,升級改造勢在必行。12年初NoSQL還是新鮮事物,交易架構(gòu)師龔杰開始實踐Redis,他在一封郵件中介紹自主封裝的客戶端以及API。商品團隊開始基于redis內(nèi)存數(shù)據(jù)庫搭建商品讀服務,并對開源Jedis做了深度封裝,擴展了ShardedJedisPool,實現(xiàn)了更加細粒度的多分片連接池管理,并且將一個請求中命中到同一個分片的redis命令由串行改成pipeline并行執(zhí)行,性能提升較大。 架構(gòu)1.0 讀服務化 由Redis存儲全量商品數(shù)據(jù),作為內(nèi)存數(shù)據(jù)庫使用。商品信息變動時增量更新,一主多備模式容災,同時全量刷新程序作為最后保障,一旦Redis中數(shù)據(jù)全部丟失,可以將商品庫中數(shù)據(jù)恢復到Redis。 交易系統(tǒng)直面用戶,為保證用戶選品、下單結(jié)算的順暢,提升用戶體驗。交易系統(tǒng)對高性能、高可用的商品讀服務需求最迫切。此時架構(gòu)升級采取了一種“輕模式”,所謂輕是指盡量減少外部系統(tǒng)的改造,這樣更利于工作的快速推進。首先在通知模式上,各種商品系統(tǒng)寫入Sqlserver主庫后,通過HttpHTTP服務通知Rcat -server(采取盡量做的策略,能通知就通知到,有異常也不去重試,這種策略對相關系統(tǒng)的改造最小)。Rcat-server的職責就是接收通知,之后查詢主庫中的商品信息,將其更新到Redis中。因為寫入系統(tǒng)是盡量做,不保證成功的模式,因此需要補償機制去彌補遺漏。異步Worker會定期掃描數(shù)據(jù)庫,把當日更新的,從刷新到Redis中。整體架構(gòu)如圖1-1所示: 圖1-1 商品架構(gòu)V1.0 V1.0版架構(gòu)非常不完美,只是讀服務這個點進行了改造,但是卻在當年618中完美的完成了任務。618當天像往年一樣,研發(fā)工程師售后守候在運維同學周圍,時刻準備著!整個過程波瀾不驚,只有過個別應用過載重啟,整體非常順利扛過了大流量的考驗。有了這個經(jīng)驗,研發(fā)工程師們開始將Rcat(應用名稱,商品讀服務)推廣,依賴Sqlserver從庫的系統(tǒng)都逐步切換到讀服務上。
架構(gòu)2.0 全面服務化 POP商品系統(tǒng)和自營商品系統(tǒng)都是寫入Oracle,在通過異步worker將數(shù)據(jù)寫會Sqlserver。京東商品的獨特之處在于最初是自采自銷的自營類商品,有自己的商品模型和對應的erp管理系統(tǒng)。后續(xù)有了POP開放平臺,該平臺的商品模型和系統(tǒng)是獨立搭建的,適應于第三方商家的商品發(fā)布管理。而所有下游的系統(tǒng)(單品、搜索、訂單生產(chǎn)、倉庫等)都是基于最初Sqlserver自營skuSKU模型做的系統(tǒng)設計。所以POP商品有自己的Oracle存儲,也必須京東經(jīng)過一步異步程序轉(zhuǎn)化,寫到Sqlserver商品庫中。而自營商品系統(tǒng)在2011年架構(gòu)升級時,計劃由.Net+Sqlserver的技術體系升級外Java+Oracle技術體系。 孫歌作為研發(fā)負責人,基于技術前瞻性和成本考慮,果斷決策放棄既昂貴又沒有DBA團隊良好支持的Oracle數(shù)據(jù)庫。轉(zhuǎn)而直接基于SqlServer實現(xiàn)商品的全面服務化,相比其他系統(tǒng)的去O足足早了一年。當時的整體思路是先實現(xiàn)服務化,再進行存儲升級(Mysql集群),最終完成徹底的技術架構(gòu)升級。全面服務化過程: 1). 全面讀服務體系: 將下游系統(tǒng)讀取的信息刷新到Redis中,由讀服務Rcat統(tǒng)一支持根據(jù)skuId查詢的需求。對于檢索需求,例如根據(jù)分類id查詢SkuSKU列表,搭建Solr索引服務?;诟飨到y(tǒng)的需求收集已經(jīng)當前SQL的分析,搭建了讀服務體系,并逐步推廣,去掉各系統(tǒng)對Sqlserver數(shù)據(jù)庫的讀取依賴。 2).寫服務化 接管所有商品寫操作,提供商品相關的基本讀寫服務,建立商品主數(shù)據(jù)中心,服務于自營商品管理、POP平臺、圖書音像商品管理等系統(tǒng)。京東起家于3C自營產(chǎn)品, SKU化管理。后發(fā)展的POP平臺,是商品化發(fā)布管理。寫服務必須兼容兩套模型,平滑過渡。研發(fā)工程師最終設計為統(tǒng)一到商品-skuSKU模型,自營商品與SkuSKU一對一,而POP商品與SkuSKU是一對多。自營商品每發(fā)布一個商品有且僅有一個SKUSku,pop商家發(fā)布一個商品可以有多個SkuSKU。自營商品溝通通過后期的顏色尺碼綁定,實現(xiàn)銷售關系捆綁。這樣展現(xiàn)給用戶的效果是一樣的,同時對于京東采銷、POP商家都可以按各自的習慣去操作商品。 寫服務設計時架構(gòu)師尤鳳凱充分考慮了擴展性、可復用性,實現(xiàn)了模塊可配置化。基于商品介紹、擴展屬性、規(guī)格參數(shù)、特殊屬性等基礎組件,可靈活組配不同的業(yè)務流程。使用了京東自主研發(fā)的SAF中間件,其支持負載均衡、自動故障切換、流量控制、黑白名單等特性,并且在性能方面表現(xiàn)優(yōu)異。 3).去O:去掉自營商品系統(tǒng)的Oracle,直接寫Sqlserver降低延遲,縮短商家發(fā)布到展現(xiàn)給最終用戶的時間。 4).異步引擎:建立下發(fā)服務系統(tǒng),統(tǒng)一化消息通知網(wǎng)站、WMS等下游系統(tǒng)。 最初的商品變動時,只需要通知WMS系統(tǒng), 因為采購入庫時,倉庫需要核實商品信息。隨著整個京東服務化進程的推進,搜索、單品頁等系統(tǒng)都希望得到通知。因此規(guī)劃了下發(fā)服務,在商品信息變動后,異步通知這些系統(tǒng)。將商品信息入庫后,同步寫”操作日志”到Redis隊列,再由worker異步從Redis中取日志,拿到變動變更的skuSKU,組裝信息化發(fā)MQ消息出去。此時的消息采取通用化設計,例如基本信息MQ、特殊屬性MQ等。 5).存儲升級:商品主數(shù)據(jù)存儲由Sqlserver單庫,升級為MySQL集群,并進行垂直、水平劃分, 分庫解決單庫吞吐量瓶頸,分表控制單表數(shù)據(jù)量。自主研發(fā)數(shù)據(jù)中間件,可以實現(xiàn)主庫的路由、從庫的負載均衡、故障的切換等,統(tǒng)一負責數(shù)據(jù)訪問,使得底層存儲規(guī)則對應用層透明。結(jié)合當前數(shù)據(jù)總量及增長率,預計3年后達到的數(shù)據(jù)量,做存儲容量規(guī)劃,并且做了Pre-Sharding方式,方便后續(xù)擴容。對于非片鍵外的查詢,使用二級路由或者搜索服務來解決。 整體架構(gòu)如圖1-2所示 圖1-2 商品架構(gòu)v2.0 隨著商品及SKU數(shù)量顯著增長、TPS逐步走高。寫服務、下發(fā)服務耦合的弊端越來越突出顯現(xiàn)。如1-2圖中紅色線條形成的環(huán)狀所示,寫服務和下發(fā)服務是相互影響的。假設寫Redis變慢,會影響整體寫入性能;如果DB遇到瓶頸,反過來又回會影響到下發(fā)服務,回查DB變慢,下發(fā)服務處理變慢。因此寫服務經(jīng)常會出現(xiàn)抖動,寫變慢、下發(fā)延遲。
架構(gòu)3.0平臺化、精準化 2015年中開始,架構(gòu)師李帥啟動3.0架構(gòu)升級,其理念是解耦、簡化。架構(gòu)越簡單越好,沒接觸過的人新人很快可以上手;架構(gòu)也必須松耦合的,寫、下發(fā)、讀都可以各自做升級,相互不影響,逐步提升整體性能。 用Jingobus基于從庫日志識別商品信息變動,并發(fā)送通知、刷新redis集群。異步引擎消息可配置化,商品屬性的組合對應消息隊列。例如:搜索關注skuSKU狀態(tài)變化,那么只有skuSKU的上下柜狀態(tài)變化時,才會發(fā)送消息,消息體中只包含skuSKU編號及狀態(tài)??膳渲没娜蝿找妫滦枨箜憫臁㈤_發(fā)接近零成本;實現(xiàn)了按需發(fā)送,給消費方減壓(例如:給wms的消息量降低80%+);并且寫系統(tǒng)解耦,整體穩(wěn)定性增強。在推廣過程中,還進行跨部門技術協(xié)作,共同升級技術架構(gòu)。例如網(wǎng)站單品頁數(shù)據(jù)異構(gòu)升級項目,降低50%+接口交互,節(jié)約上百臺Docker。 商品服務作為超0級系統(tǒng) ,必須具有高可用性。任何影響到訂單的系統(tǒng)故障都必須在三分鐘內(nèi)解決,有了統(tǒng)一切換平臺,執(zhí)行預案是可以很快的。因此發(fā)現(xiàn)問題并警報至關重要。在研發(fā)負責人趙湘建的引領下,商品組啟動秒級監(jiān)控平臺的研發(fā)。內(nèi)存級監(jiān)控信息收集、合并、延遲秒級。并且實現(xiàn)了秒級監(jiān)控的平臺化,可將監(jiān)控能力輸出到其他系統(tǒng)。 期間商品讀服務也在持續(xù)進行著升級。因為skuSKU數(shù)量大(數(shù)十億)且持續(xù)增長(周增長率約105%),Redis存儲集群規(guī)模也大。讀服務為其他眾多系統(tǒng)提供商品數(shù)據(jù)的查詢服務,訪問量很大,特別是在618,雙11期間,所以需要多組Redis集群分擔流量。NIO的Redis客戶端,降低了連接數(shù)量;后續(xù)為解決多組Redis集群流量均衡問題,對NIO版本的客戶端做了擴展,實現(xiàn)了多分片連接統(tǒng)一管理,使其負載均衡,并能當某一分片宕機的情況下,自動從集群中剔除,恢復后自動加入集群中,達到故障自動轉(zhuǎn)移與恢復的目的。不僅提高了集群整體的吞吐量,而且提升了可靠性。 同時因為商品數(shù)量增長很快,Redis集群的規(guī)模也成倍增加,為減少資源的利用,設計三級緩存功能,將最熱數(shù)據(jù)放應用內(nèi)存中,緩存時間較短;熱數(shù)據(jù)放在規(guī)模較小的Redis集群中,全量數(shù)據(jù)放到規(guī)模較大的集群中,這樣全量數(shù)據(jù)的Redis集群OPS較少,可以減少部署組數(shù),從而減少資源利用。 圖1-3 商品架構(gòu)V3.0 京東商品系統(tǒng)在業(yè)務創(chuàng)新、數(shù)據(jù)智能化、性能及穩(wěn)定性提升方面,將持續(xù)努力提升,努力實踐讓技術改變生活的愿景。 更多技術架構(gòu)資料可參考《億級流量》。 |
|