深入分析ConcurrentHashMap術(shù)語定義
線程不安全的HashMap因?yàn)槎嗑€程環(huán)境下,使用HashMap進(jìn)行put操作會(huì)引起死循環(huán),導(dǎo)致CPU利用率接近100%,所以在并發(fā)情況下不能使用HashMap,如以下代碼 final HashMap<String, String> map = new HashMap<String, String>(2); Thread t = new Thread(new Runnable() { @Override public void run() { for (int i = 0; i < 10000; i++) { new Thread(new Runnable() { @Override public void run() { map.put(UUID.randomUUID().toString(), ""); } }, "ftf" + i).start(); } } }, "ftf"); t.start(); t.join(); 效率低下的HashTable容器HashTable容器使用synchronized來保證線程安全,但在線程競爭激烈的情況下HashTable的效率非常低下。因?yàn)楫?dāng)一個(gè)線程 訪問HashTable的同步方法時(shí),其他線程訪問HashTable的同步方法時(shí),可能會(huì)進(jìn)入阻塞或輪詢狀態(tài)。如線程1使用put進(jìn)行添加元素,線程2 不但不能使用put方法添加元素,并且也不能使用get方法來獲取元素,所以競爭越激烈效率越低。
鎖分段技術(shù)HashTable容器在競爭激烈的并發(fā)環(huán)境下表現(xiàn)出效率低下的原因是所有訪問HashTable的線程都必須競爭同一把鎖,那假如容器里有多把 鎖,每一把鎖用于鎖容器其中一部分?jǐn)?shù)據(jù),那么當(dāng)多線程訪問容器里不同數(shù)據(jù)段的數(shù)據(jù)時(shí),線程間就不會(huì)存在鎖競爭,從而可以有效的提高并發(fā)訪問效率,這就是 ConcurrentHashMap所使用的鎖分段技術(shù),首先將數(shù)據(jù)分成一段一段的存儲(chǔ),然后給每一段數(shù)據(jù)配一把鎖,當(dāng)一個(gè)線程占用鎖訪問其中一個(gè)段數(shù)據(jù) 的時(shí)候,其他段的數(shù)據(jù)也能被其他線程訪問。
ConcurrentHashMap的結(jié)構(gòu)我們通過ConcurrentHashMap的類圖來分析ConcurrentHashMap的結(jié)構(gòu)。 ConcurrentHashMap是由Segment數(shù)組結(jié)構(gòu)和HashEntry數(shù)組結(jié)構(gòu)組成。Segment是一種可重入鎖 ReentrantLock,在ConcurrentHashMap里扮演鎖的角色,HashEntry則用于存儲(chǔ)鍵值對(duì)數(shù)據(jù)。一個(gè) ConcurrentHashMap里包含一個(gè)Segment數(shù)組,Segment的結(jié)構(gòu)和HashMap類似,是一種數(shù)組和鏈表結(jié)構(gòu), 一個(gè)Segment里包含一個(gè)HashEntry數(shù)組,每個(gè)HashEntry是一個(gè)鏈表結(jié)構(gòu)的元素, 每個(gè)Segment守護(hù)者一個(gè)HashEntry數(shù)組里的元素,當(dāng)對(duì)HashEntry數(shù)組的數(shù)據(jù)進(jìn)行修改時(shí),必須首先獲得它對(duì)應(yīng)的Segment鎖。
ConcurrentHashMap的初始化ConcurrentHashMap初始化方法是通過initialCapacity,loadFactor, concurrencyLevel幾個(gè)參數(shù)來初始化segments數(shù)組,段偏移量segmentShift,段掩碼segmentMask和每個(gè) segment里的HashEntry數(shù)組 。 初始化segments數(shù)組。讓我們來看一下初始化segmentShift,segmentMask和segments數(shù)組的源代碼。 if (concurrencyLevel > MAX_SEGMENTS) concurrencyLevel = MAX_SEGMENTS; // Find power-of-two sizes best matching arguments int sshift = 0; int ssize = 1; while (ssize < concurrencyLevel) { ++sshift; ssize <<= 1; } segmentShift = 32 - sshift; segmentMask = ssize - 1; this.segments = Segment.newArray(ssize); 由上面的代碼可知segments數(shù)組的長度ssize通過concurrencyLevel計(jì)算得出。為了能通過按位與的哈希算法來定位 segments數(shù)組的索引,必須保證segments數(shù)組的長度是2的N次方(power-of-two size),所以必須計(jì)算出一個(gè)是大于或等于concurrencyLevel的最小的2的N次方值來作為segments數(shù)組的長度。假如 concurrencyLevel等于14,15或16,ssize都會(huì)等于16,即容器里鎖的個(gè)數(shù)也是16。注意concurrencyLevel的最 大大小是65535,意味著segments數(shù)組的長度最大為65536,對(duì)應(yīng)的二進(jìn)制是16位。 初始化segmentShift和segmentMask。這兩個(gè)全局變量在定位segment時(shí)的哈希算法里需要使用,sshift等于 ssize從1向左移位的次數(shù),在默認(rèn)情況下concurrencyLevel等于16,1需要向左移位移動(dòng)4次,所以sshift等于4。 segmentShift用于定位參與hash運(yùn)算的位數(shù),segmentShift等于32減sshift,所以等于28,這里之所以用32是因?yàn)? ConcurrentHashMap里的hash()方法輸出的最大數(shù)是32位的,后面的測試中我們可以看到這點(diǎn)。segmentMask是哈希運(yùn)算的掩 碼,等于ssize減1,即15,掩碼的二進(jìn)制各個(gè)位的值都是1。因?yàn)閟size的最大長度是65536,所以segmentShift最大值是 16,segmentMask最大值是65535,對(duì)應(yīng)的二進(jìn)制是16位,每個(gè)位都是1。 初始化每個(gè)Segment。輸入?yún)?shù)initialCapacity是ConcurrentHashMap的初始化容量,loadfactor是每個(gè)segment的負(fù)載因子,在構(gòu)造方法里需要通過這兩個(gè)參數(shù)來初始化數(shù)組中的每個(gè)segment。 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; int c = initialCapacity / ssize; if (c * ssize < initialCapacity) ++c; int cap = 1; while (cap < c) cap <<= 1; for (int i = 0; i < this.segments.length; ++i) this.segments[i] = new Segment<K,V>(cap, loadFactor); 上面代碼中的變量cap就是segment里HashEntry數(shù)組的長度,它等于initialCapacity除以ssize的倍數(shù)c,如果c 大于1,就會(huì)取大于等于c的2的N次方值,所以cap不是1,就是2的N次方。segment的容量threshold= (int)cap*loadFactor,默認(rèn)情況下initialCapacity等于16,loadfactor等于0.75,通過運(yùn)算cap等于 1,threshold等于零。
定位Segment既然ConcurrentHashMap使用分段鎖Segment來保護(hù)不同段的數(shù)據(jù),那么在插入和獲取元素的時(shí)候,必須先通過哈希算法定位到 Segment。可以看到ConcurrentHashMap會(huì)首先使用Wang/Jenkins hash的變種算法對(duì)元素的hashCode進(jìn)行一次再哈希。 private static int hash(int h) { h += (h << 15) ^ 0xffffcd7d; h ^= (h >>> 10); h += (h << 3); h ^= (h >>> 6); h += (h << 2) + (h << 14); return h ^ (h >>> 16); } 之所以進(jìn)行再哈希,其目的是為了減少哈希沖突,使元素能夠均勻的分布在不同的Segment上,從而提高容器的存取效率。假如哈希的質(zhì)量差到極點(diǎn), 那么所有的元素都在一個(gè)Segment中,不僅存取元素緩慢,分段鎖也會(huì)失去意義。我做了一個(gè)測試,不通過再哈希而直接執(zhí)行哈希計(jì)算。 System.out.println(Integer.parseInt("0001111", 2) & 15); System.out.println(Integer.parseInt("0011111", 2) & 15); System.out.println(Integer.parseInt("0111111", 2) & 15); System.out.println(Integer.parseInt("1111111", 2) & 15); 計(jì)算后輸出的哈希值全是15,通過這個(gè)例子可以發(fā)現(xiàn)如果不進(jìn)行再哈希,哈希沖突會(huì)非常嚴(yán)重,因?yàn)橹灰臀灰粯樱瑹o論高位是什么數(shù),其哈希值總是一樣。我們再把上面的二進(jìn)制數(shù)據(jù)進(jìn)行再哈希后結(jié)果如下,為了方便閱讀,不足32位的高位補(bǔ)了0,每隔四位用豎線分割下。 0100|0111|0110|0111|1101|1010|0100|1110 1111|0111|0100|0011|0000|0001|1011|1000 0111|0111|0110|1001|0100|0110|0011|1110 1000|0011|0000|0000|1100|1000|0001|1010 可以發(fā)現(xiàn)每一位的數(shù)據(jù)都散列開了,通過這種再哈希能讓數(shù)字的每一位都能參加到哈希運(yùn)算當(dāng)中,從而減少哈希沖突。ConcurrentHashMap通過以下哈希算法定位segment。 final Segment<K,V> segmentFor(int hash) { return segments[(hash >>> segmentShift) & segmentMask]; } 默認(rèn)情況下segmentShift為28,segmentMask為15,再哈希后的數(shù)最大是32位二進(jìn)制數(shù)據(jù),向右無符號(hào)移動(dòng)28位,意思是讓 高4位參與到hash運(yùn)算中, (hash >>> segmentShift) & segmentMask的運(yùn)算結(jié)果分別是4,15,7和8,可以看到hash值沒有發(fā)生沖突。
ConcurrentHashMap的get操作Segment的get操作實(shí)現(xiàn)非常簡單和高效。先經(jīng)過一次再哈希,然后使用這個(gè)哈希值通過哈希運(yùn)算定位到segment,再通過哈希算法定位到元素,代碼如下: public V get(Object key) { int hash = hash(key.hashCode()); return segmentFor(hash).get(key, hash); } get操作的高效之處在于整個(gè)get過程不需要加鎖,除非讀到的值是空的才會(huì)加鎖重讀,我們知道HashTable容器的get方法是需要加鎖的, 那么ConcurrentHashMap的get操作是如何做到不加鎖的呢?原因是它的get方法里將要使用的共享變量都定義成volatile,如用于 統(tǒng)計(jì)當(dāng)前Segement大小的count字段和用于存儲(chǔ)值的HashEntry的value。定義成volatile的變量,能夠在線程之間保持可見 性,能夠被多線程同時(shí)讀,并且保證不會(huì)讀到過期的值,但是只能被單線程寫(有一種情況可以被多線程寫,就是寫入的值不依賴于原值),在get操作里只需要 讀不需要寫共享變量count和value,所以可以不用加鎖。之所以不會(huì)讀到過期的值,是根據(jù)java內(nèi)存模型的happen before原則,對(duì)volatile字段的寫入操作先于讀操作,即使兩個(gè)線程同時(shí)修改和獲取volatile變量,get操作也能拿到最新的值,這是用 volatile替換鎖的經(jīng)典應(yīng)用場景。 transient volatile int count; volatile V value; 在定位元素的代碼里我們可以發(fā)現(xiàn)定位HashEntry和定位Segment的哈希算法雖然一樣,都與數(shù)組的長度減去一相與,但是相與的值不一樣, 定位Segment使用的是元素的hashcode通過再哈希后得到的值的高位,而定位HashEntry直接使用的是再哈希后的值。其目的是避免兩次哈 希后的值一樣,導(dǎo)致元素雖然在Segment里散列開了,但是卻沒有在HashEntry里散列開。 hash >>> segmentShift) & segmentMask//定位Segment所使用的hash算法 int index = hash & (tab.length - 1);// 定位HashEntry所使用的hash算法
ConcurrentHashMap的Put操作由于put方法里需要對(duì)共享變量進(jìn)行寫入操作,所以為了線程安全,在操作共享變量時(shí)必須得加鎖。Put方法首先定位到Segment,然后在 Segment里進(jìn)行插入操作。插入操作需要經(jīng)歷兩個(gè)步驟,第一步判斷是否需要對(duì)Segment里的HashEntry數(shù)組進(jìn)行擴(kuò)容,第二步定位添加元素 的位置然后放在HashEntry數(shù)組里。 是否需要擴(kuò)容。在插入元素前會(huì)先判斷Segment里的HashEntry數(shù)組是否超過容量(threshold),如果超過閥值,數(shù)組進(jìn)行擴(kuò)容。 值得一提的是,Segment的擴(kuò)容判斷比HashMap更恰當(dāng),因?yàn)镠ashMap是在插入元素后判斷元素是否已經(jīng)到達(dá)容量的,如果到達(dá)了就進(jìn)行擴(kuò)容, 但是很有可能擴(kuò)容之后沒有新元素插入,這時(shí)HashMap就進(jìn)行了一次無效的擴(kuò)容。 如何擴(kuò)容。擴(kuò)容的時(shí)候首先會(huì)創(chuàng)建一個(gè)兩倍于原容量的數(shù)組,然后將原數(shù)組里的元素進(jìn)行再hash后插入到新的數(shù)組里。為了高效ConcurrentHashMap不會(huì)對(duì)整個(gè)容器進(jìn)行擴(kuò)容,而只對(duì)某個(gè)segment進(jìn)行擴(kuò)容。
ConcurrentHashMap的size操作如果我們要統(tǒng)計(jì)整個(gè)ConcurrentHashMap里元素的大小,就必須統(tǒng)計(jì)所有Segment里元素的大小后求和。Segment里的全局變 量count是一個(gè)volatile變量,那么在多線程場景下,我們是不是直接把所有Segment的count相加就可以得到整個(gè) ConcurrentHashMap大小了呢?不是的,雖然相加時(shí)可以獲取每個(gè)Segment的count的最新值,但是拿到之后可能累加前使用的 count發(fā)生了變化,那么統(tǒng)計(jì)結(jié)果就不準(zhǔn)了。所以最安全的做法,是在統(tǒng)計(jì)size的時(shí)候把所有Segment的put,remove和clean方法全 部鎖住,但是這種做法顯然非常低效。 因?yàn)樵诶奂觕ount操作過程中,之前累加過的count發(fā)生變化的幾率非常小,所以ConcurrentHashMap的做法是先嘗試2次通過不鎖住 Segment的方式來統(tǒng)計(jì)各個(gè)Segment大小,如果統(tǒng)計(jì)的過程中,容器的count發(fā)生了變化,則再采用加鎖的方式來統(tǒng)計(jì)所有Segment的大 小。 那么ConcurrentHashMap是如何判斷在統(tǒng)計(jì)的時(shí)候容器是否發(fā)生了變化呢?使用modCount變量,在put , remove和clean方法里操作元素前都會(huì)將變量modCount進(jìn)行加1,那么在統(tǒng)計(jì)size前后比較modCount是否發(fā)生變化,從而得知容器 的大小是否發(fā)生變化。
|
|