在開發(fā)高并發(fā)系統(tǒng)時有三把利器用來保護系統(tǒng):緩存、降級和限流。緩存的目的是提升系統(tǒng)訪問速度和增大系統(tǒng)能處理的容量,可謂是抗高并發(fā)流量的銀彈;而降級是當服務出問題或者影響到核心流程的性能則需要暫時屏蔽掉,待高峰或者問題解決后再打開;而有些場景并不能用緩存和降級來解決,比如稀缺資源(秒殺、搶購)、寫服務(如評論、下單)、頻繁的復雜查詢(評論的最后幾頁),因此需有一種手段來限制這些場景的并發(fā)/請求量,即限流。
限流的目的是通過對并發(fā)訪問/請求進行限速或者一個時間窗口內的的請求進行限速來保護系統(tǒng),一旦達到限制速率則可以拒絕服務(定向到錯誤頁或告知資源沒有了)、排隊或等待(比如秒殺、評論、下單)、降級(返回兜底數(shù)據(jù)或默認數(shù)據(jù),如商品詳情頁庫存默認有貨)。
一般開發(fā)高并發(fā)系統(tǒng)常見的限流有:限制總并發(fā)數(shù)(比如數(shù)據(jù)庫連接池、線程池)、限制瞬時并發(fā)數(shù)(如nginx的limit_conn模塊,用來限制瞬時并發(fā)連接數(shù))、限制時間窗口內的平均速率(如Guava的RateLimiter、nginx的limit_req模塊,限制每秒的平均速率);其他還有如限制遠程接口調用速率、限制MQ的消費速率。另外還可以根據(jù)網(wǎng)絡連接數(shù)、網(wǎng)絡流量、CPU或內存負載等來限流。
先有緩存這個銀彈,后有限流來應對618、雙十一高并發(fā)流量,在處理高并發(fā)問題上可以說是如虎添翼,不用擔心瞬間流量導致系統(tǒng)掛掉或雪崩,最終做到有損服務而不是不服務;限流需要評估好,不可亂用,否則會正常流量出現(xiàn)一些奇怪的問題而導致用戶抱怨。
在實際應用時也不要太糾結算法問題,因為一些限流算法實現(xiàn)是一樣的只是描述不一樣;具體使用哪種限流技術還是要根據(jù)實際場景來選擇,不要一味去找最佳模式,白貓黑貓能解決問題的就是好貓。
因在實際工作中遇到過許多人來問如何進行限流,因此本文會詳細介紹各種限流手段。那么接下來我們從限流算法、應用級限流、分布式限流、接入層限流來詳細學習下限流技術手段。
限流算法
常見的限流算法有:令牌桶、漏桶。計數(shù)器也可以進行粗暴限流實現(xiàn)。
令牌桶算法
令牌桶算法是一個存放固定容量令牌的桶,按照固定速率往桶里添加令牌。令牌桶算法的描述如下:
-
假設限制2r/s,則按照500毫秒的固定速率往桶中添加令牌;
-
桶中最多存放b個令牌,當桶滿時,新添加的令牌被丟棄或拒絕;
-
當一個n個字節(jié)大小的數(shù)據(jù)包到達,將從桶中刪除n個令牌,接著數(shù)據(jù)包被發(fā)送到網(wǎng)絡上;
-
如果桶中的令牌不足n個,則不會刪除令牌,且該數(shù)據(jù)包將被限流(要么丟棄,要么緩沖區(qū)等待)。
漏桶算法
漏桶作為計量工具(The Leaky Bucket Algorithm as a Meter)時,可以用于流量整形(Traffic
Shaping)和流量控制(TrafficPolicing),漏桶算法的描述如下:
令牌桶和漏桶對比:
-
令牌桶是按照固定速率往桶中添加令牌,請求是否被處理需要看桶中令牌是否足夠,當令牌數(shù)減為零時則拒絕新的請求;
-
漏桶則是按照常量固定速率流出請求,流入請求速率任意,當流入的請求數(shù)累積到漏桶容量時,則新流入的請求被拒絕;
-
令牌桶限制的是平均流入速率(允許突發(fā)請求,只要有令牌就可以處理,支持一次拿3個令牌,4個令牌),并允許一定程度突發(fā)流量;
-
漏桶限制的是常量流出速率(即流出速率是一個固定常量值,比如都是1的速率流出,而不能一次是1,下次又是2),從而平滑突發(fā)流入速率;
-
令牌桶允許一定程度的突發(fā),而漏桶主要目的是平滑流入速率;
-
兩個算法實現(xiàn)可以一樣,但是方向是相反的,對于相同的參數(shù)得到的限流效果是一樣的。
另外有時候我們還使用計數(shù)器來進行限流,主要用來限制總并發(fā)數(shù),比如數(shù)據(jù)庫連接池、線程池、秒殺的并發(fā)數(shù);只要全局總請求數(shù)或者一定時間段的總請求數(shù)設定的閥值則進行限流,是簡單粗暴的總數(shù)量限流,而不是平均速率限流。
到此基本的算法就介紹完了,接下來我們首先看看應用級限流。
應用級限流
限流總并發(fā)/連接/請求數(shù)
對于一個應用系統(tǒng)來說一定會有極限并發(fā)/請求數(shù),即總有一個TPS/QPS閥值,如果超了閥值則系統(tǒng)就會不響應用戶請求或響應的非常慢,因此我們最好進行過載保護,防止大量請求涌入擊垮系統(tǒng)。
如果你使用過Tomcat,其Connector
其中一種配置有如下幾個參數(shù):
acceptCount:如果Tomcat的線程都忙于響應,新來的連接會進入隊列排隊,如果超出排隊大小,則拒絕連接;
maxConnections:
瞬時最大連接數(shù),超出的會排隊等待;
maxThreads:Tomcat能啟動用來處理請求的最大線程數(shù),如果請求處理量一直遠遠大于最大線程數(shù)則可能會僵死。
詳細的配置請參考官方文檔。另外如Mysql(如max_connections)、Redis(如tcp-backlog)都會有類似的限制連接數(shù)的配置。
限流總資源數(shù)
如果有的資源是稀缺資源(如數(shù)據(jù)庫連接、線程),而且可能有多個系統(tǒng)都會去使用它,那么需要限制應用;可以使用池化技術來限制總資源數(shù):連接池、線程池。比如分配給每個應用的數(shù)據(jù)庫連接是100,那么本應用最多可以使用100個資源,超出了可以等待或者拋異常。
限流某個接口的總并發(fā)/請求數(shù)
如果接口可能會有突發(fā)訪問情況,但又擔心訪問量太大造成崩潰,如搶購業(yè)務;這個時候就需要限制這個接口的總并發(fā)/請求數(shù)總請求數(shù)了;因為粒度比較細,可以為每個接口都設置相應的閥值??梢允褂?/span>Java中的AtomicLong進行限流:
=================================
try { if(atomic.incrementAndGet() > 限流數(shù)) { //拒絕請求 } //處理請求 } finally { atomic.decrementAndGet(); }
=================================
適合對業(yè)務無損的服務或者需要過載保護的服務進行限流,如搶購業(yè)務,超出了大小要么讓用戶排隊,要么告訴用戶沒貨了,對用戶來說是可以接受的。而一些開放平臺也會限制用戶調用某個接口的試用請求量,也可以用這種計數(shù)器方式實現(xiàn)。這種方式也是簡單粗暴的限流,沒有平滑處理,需要根據(jù)實際情況選擇使用;
限流某個接口的時間窗請求數(shù)
即一個時間窗口內的請求數(shù),如想限制某個接口/服務每秒/每分鐘/每天的請求數(shù)/調用量。如一些基礎服務會被很多其他系統(tǒng)調用,比如商品詳情頁服務會調用基礎商品服務調用,但是怕因為更新量比較大將基礎服務打掛,這時我們要對每秒/每分鐘的調用量進行限速;一種實現(xiàn)方式如下所示:
=================================
LoadingCache<Long, AtomicLong> counter = CacheBuilder.newBuilder() .expireAfterWrite(2, TimeUnit.SECONDS) .build(new CacheLoader<Long, AtomicLong>() { @Override public AtomicLong load(Long seconds) throws Exception { return new AtomicLong(0); } }); long limit = 1000; while(true) { //得到當前秒 long currentSeconds = System.currentTimeMillis() / 1000; if(counter.get(currentSeconds).incrementAndGet() > limit) { System.out.println("限流了:" + currentSeconds); continue; } //業(yè)務處理 }
=================================
我們使用Guava的Cache來存儲計數(shù)器,過期時間設置為2秒(保證1秒內的計數(shù)器是有的),然后我們獲取當前時間戳然后取秒數(shù)來作為KEY進行計數(shù)統(tǒng)計和限流,這種方式也是簡單粗暴,剛才說的場景夠用了。
平滑限流某個接口的請求數(shù)
之前的限流方式都不能很好地應對突發(fā)請求,即瞬間請求可能都被允許從而導致一些問題;因此在一些場景中需要對突發(fā)請求進行整形,整形為平均速率請求處理(比如5r/s,則每隔200毫秒處理一個請求,平滑了速率)。這個時候有兩種算法滿足我們的場景:令牌桶和漏桶算法。Guava框架提供了令牌桶算法實現(xiàn),可直接拿來使用。
Guava RateLimiter提供了令牌桶算法實現(xiàn):平滑突發(fā)限流(SmoothBursty)和平滑預熱限流(SmoothWarmingUp)實現(xiàn)。
SmoothBursty
=================================
RateLimiter limiter = RateLimiter.create(5); System.out.println(limiter.acquire()); System.out.println(limiter.acquire()); System.out.println(limiter.acquire()); System.out.println(limiter.acquire()); System.out.println(limiter.acquire()); System.out.println(limiter.acquire());
將得到類似如下的輸出:
0.0
0.198239
0.196083
0.200609
0.199599
0.19961
=================================
1、RateLimiter.create(5)
表示桶容量為5且每秒新增5個令牌,即每隔200毫秒新增一個令牌;
2、limiter.acquire()表示消費一個令牌,如果當前桶中有足夠令牌則成功(返回值為0),如果桶中沒有令牌則暫停一段時間,比如發(fā)令牌間隔是200毫秒,則等待200毫秒后再去消費令牌(如上測試用例返回的為0.198239,差不多等待了200毫秒桶中才有令牌可用),這種實現(xiàn)將突發(fā)請求速率平均為了固定請求速率。
再看一個突發(fā)示例:
=================================
RateLimiter limiter = RateLimiter.create(5);
System.out.println(limiter.acquire(5));
System.out.println(limiter.acquire(1));
System.out.println(limiter.acquire(1))
將得到類似如下的輸出:
0.0
0.98745
0.183553
0.199909
=================================
limiter.acquire(5)表示桶的容量為5且每秒新增5個令牌,令牌桶算法允許一定程度的突發(fā),所以可以一次性消費5個令牌,但接下來的limiter.acquire(1)將等待差不多1秒桶中才能有令牌,且接下來的請求也整形為固定速率了。
=================================
RateLimiter limiter = RateLimiter.create(5);
System.out.println(limiter.acquire(10));
System.out.println(limiter.acquire(1));
System.out.println(limiter.acquire(1));
將得到類似如下的輸出:
0.0
1.997428
0.192273
0.200616
=================================
同上邊的例子類似,第一秒突發(fā)了10個請求,令牌桶算法也允許了這種突發(fā)(允許消費未來的令牌),但接下來的limiter.acquire(1)將等待差不多2秒桶中才能有令牌,且接下來的請求也整形為固定速率了。
接下來再看一個突發(fā)的例子:
=================================
RateLimiter limiter = RateLimiter.create(2);
System.out.println(limiter.acquire());
Thread.sleep(2000L);
System.out.println(limiter.acquire());
System.out.println(limiter.acquire());
System.out.println(limiter.acquire());
System.out.println(limiter.acquire());
System.out.println(limiter.acquire());
將得到類似如下的輸出:
0.0
0.0
0.0
0.0
0.499876
0.495799
=================================
1、創(chuàng)建了一個桶容量為2且每秒新增2個令牌;
2、首先調用limiter.acquire()消費一個令牌,此時令牌桶可以滿足(返回值為0);
3、然后線程暫停2秒,接下來的兩個limiter.acquire()都能消費到令牌,第三個limiter.acquire()也同樣消費到了令牌,到第四個時就需要等待500毫秒了。
此處可以看到我們設置的桶容量為2(即允許的突發(fā)量),這是因為SmoothBursty中有一個參數(shù):最大突發(fā)秒數(shù)(maxBurstSeconds)默認值是1s,突發(fā)量/桶容量=速率*maxBurstSeconds,所以本示例桶容量/突發(fā)量為2,例子中前兩個是消費了之前積攢的突發(fā)量,而第三個開始就是正常計算的了。令牌桶算法允許將一段時間內沒有消費的令牌暫存到令牌桶中,留待未來使用,并允許未來請求的這種突發(fā)。
SmoothBursty通過平均速率和最后一次新增令牌的時間計算出下次新增令牌的時間的,另外需要一個桶暫存一段時間內沒有使用的令牌(即可以突發(fā)的令牌數(shù))。另外RateLimiter還提供了tryAcquire方法來進行無阻塞或可超時的令牌消費。
因為SmoothBursty允許一定程度的突發(fā),會有人擔心如果允許這種突發(fā),假設突然間來了很大的流量,那么系統(tǒng)很可能扛不住這種突發(fā)。因此需要一種平滑速率的限流工具,從而系統(tǒng)冷啟動后慢慢的趨于平均固定速率(即剛開始速率小一些,然后慢慢趨于我們設置的固定速率)。Guava也提供了SmoothWarmingUp來實現(xiàn)這種需求,其可以認為是漏桶算法,但是在某些特殊場景又不太一樣。
SmoothWarmingUp創(chuàng)建方式:RateLimiter.create(doublepermitsPerSecond, long warmupPeriod, TimeUnit unit)
permitsPerSecond表示每秒新增的令牌數(shù),warmupPeriod表示在從冷啟動速率過渡到平均速率的時間間隔。
示例如下:
=================================
RateLimiter limiter = RateLimiter.create(5,
1000,
TimeUnit.MILLISECONDS);
for(int
i =
1;
i < 5;i++)
{
System.out.println(limiter.acquire());
}
Thread.sleep(1000L);
for(int
i =
1;
i < 5;i++)
{
System.out.println(limiter.acquire());
}
將得到類似如下的輸出:
0.0
0.51767
0.357814
0.219992
0.199984
0.0
0.360826
0.220166
0.199723
0.199555
=================================
速率是梯形上升速率的,也就是說冷啟動時會以一個比較大的速率慢慢到平均速率;然后趨于平均速率(梯形下降到平均速率)??梢酝ㄟ^調節(jié)warmupPeriod參數(shù)實現(xiàn)一開始就是平滑固定速率。
到此應用級限流的一些方法就介紹完了。假設將應用部署到多臺機器,應用級限流方式只是單應用內的請求限流,不能進行全局限流。因此我們需要分布式限流和接入層限流來解決這個問題。
分布式限流
分布式限流最關鍵的是要將限流服務做成原子化,而解決方案可以使使用redis+lua或者nginx+lua技術進行實現(xiàn),通過這兩種技術可以實現(xiàn)的高并發(fā)和高性能。
首先我們來使用redis+lua實現(xiàn)時間窗內某個接口的請求數(shù)限流,實現(xiàn)了該功能后可以改造為限流總并發(fā)/請求數(shù)和限制總資源數(shù)。Lua本身就是一種編程語言,也可以使用它實現(xiàn)復雜的令牌桶或漏桶算法。
redis+lua實現(xiàn)中的lua腳本:
=================================
local key = KEYS[1] --限流KEY(一秒一個)
local limit = tonumber(ARGV[1]) --限流大小
local current = tonumber(redis.call("INCRBY", key, "1")) --請求數(shù)+1
if current > limit then --如果超出限流大小
return 0
elseif current == 1 then --只有第一次訪問需要設置2秒的過期時間
redis.call("expire", key,"2")
end
return 1
=================================
如上操作因是在一個lua腳本中,又因Redis是單線程模型,因此是線程安全的。如上方式有一個缺點就是當達到限流大小后還是會遞增的,可以改造成如下方式實現(xiàn):
=================================
local key = KEYS[1] --限流KEY(一秒一個)
local limit = tonumber(ARGV[1]) --限流大小
local current = tonumber(redis.call('get', key) or "0")
if current + 1 > limit then --如果超出限流大小
return 0
else --請求數(shù)+1,并設置2秒過期
redis.call("INCRBY", key,"1")
redis.call("expire", key,"2")
return 1
end
=================================
如下是Java中判斷是否需要限流的代碼:
=================================
public static boolean
acquire()
throws
Exception {
String luaScript = Files.toString(new
File("limit.lua"),
Charset.defaultCharset());
Jedis jedis = new
Jedis("192.168.147.52",
6379);
String key = "ip:"
+ System.currentTimeMillis()/
1000;
//此處將當前時間戳取秒數(shù)
Stringlimit =
"3";
//限流大小
return
(Long)jedis.eval(luaScript,Lists.newArrayList(key),
Lists.newArrayList(limit)) ==
1;
}
=================================
因為Redis的限制(Lua中有寫操作不能使用帶隨機性質的讀操作,如TIME)不能在Redis
Lua中使用TIME獲取時間戳,因此只好從應用獲取然后傳入,在某些極端情況下(機器時鐘不準的情況下),限流會存在一些小問題。
使用Nginx+Lua實現(xiàn)的Lua腳本:
=================================
local locks = require "resty.lock"
local function acquire()
local lock =locks:new("locks")
local elapsed, err =lock:lock("limit_key") --互斥鎖
local limit_counter =ngx.shared.limit_counter --計數(shù)器
local key = "ip:" ..os.time()
local limit = 5 --限流大小
local current =limit_counter:get(key)
if current ~= nil and current + 1> limit then --如果超出限流大小
lock:unlock()
return 0
end
if current == nil then
limit_counter:set(key, 1, 1) --第一次需要設置過期時間,設置key的值為1,過期時間為1秒
else
limit_counter:incr(key, 1) --第二次開始加1即可
end
lock:unlock()
return 1
end
ngx.print(acquire())
=================================
實現(xiàn)中我們需要使用lua-resty-lock互斥鎖模塊來解決原子性問題(在實際工程中使用時請考慮獲取鎖的超時問題),并使用ngx.shared.DICT共享字典來實現(xiàn)計數(shù)器。如果需要限流則返回0,否則返回1。使用時需要先定義兩個共享字典(分別用來存放鎖和計數(shù)器數(shù)據(jù)):
=================================
http {
……
lua_shared_dict locks 10m;
lua_shared_dict limit_counter 10m;
}
=================================
有人會糾結如果應用并發(fā)量非常大那么redis或者nginx是不是能抗得??;不過這個問題要從多方面考慮:你的流量是不是真的有這么大,是不是可以通過一致性哈希將分布式限流進行分片,是不是可以當并發(fā)量太大降級為應用級限流;對策非常多,可以根據(jù)實際情況調節(jié);像在京東使用Redis+Lua來限流搶購流量,一般流量是沒有問題的。
對于分布式限流目前遇到的場景是業(yè)務上的限流,而不是流量入口的限流;流量入口限流應該在接入層完成,而接入層筆者一般使用Nginx。
參考資料
https://en./wiki/Token_bucket
https://en./wiki/Leaky_bucket
http:///commands/incr
http:///en/docs/http/ngx_http_limit_req_module.html
http:///en/docs/http/ngx_http_limit_conn_module.html
https://github.com/openresty/lua-resty-limit-traffic
http:///en/docs/http/ngx_http_core_module.html#limit_rate
|