成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

厲害了!把 HashMap 剖析的只剩渣了!

開發 前端
HashMap并不是全能的,對于一些特殊的情景下的需求官方拓展了一些其他的類來滿足,如線程安全的ConcurrentHashMap、記錄插入順序的LinkHashMap、給key排序的TreeMap等。

[[399567]]

 前言

HashMap是一個非常重要的集合,日常使用也非常的頻繁,同時也是面試重點。本文并不打算講解基礎的使用api,而是深入HashMap的底層,講解關于HashMap的重點知識。需要讀者對散列表和HashMap有一定的認識。

HashMap本質上是一個散列表,那么就離不開散列表的三大問題:散列函數、哈希沖突、擴容方案;同時作為一個數據結構,必須考慮多線程并發訪問的問題,也就是線程安全。這四大重點則為學習HashMap的重點,也是HashMap設計的重點。

HashMap屬于Map集合體系的一部分,同時繼承了Serializable接口可以被序列化,繼承了Cloneable接口可以被復制。他的的繼承結構如下:

img

HashMap并不是全能的,對于一些特殊的情景下的需求官方拓展了一些其他的類來滿足,如線程安全的ConcurrentHashMap、記錄插入順序的LinkHashMap、給key排序的TreeMap等。

文章內容主要講解四大重點:散列函數、哈希沖突、擴容方案、線程安全,再補充關鍵的源碼分析和相關的問題。

本文所有內容如若未特殊說明,均為JDK1.8版本。

哈希函數

哈希函數的目標是計算key在數組中的下標。判斷一個哈希函數的標準是:散列是否均勻、計算是否簡單。

HashMap哈希函數的步驟:

  1. 對key對象的hashcode進行擾動
  2. 通過取模求得數組下標

擾動是為了讓hashcode的隨機性更高,第二步取模就不會讓所以的key都聚集在一起,提高散列均勻度。擾動可以看到hash()方法:

  1. static final int hash(Object key) { 
  2.     int h; 
  3.     // 獲取到key的hashcode,在高低位異或運算 
  4.     return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); 

也就是低16位是和高16位進行異或,高16位保持不變。一般的數組長度都會比較短,取模運算中只有低位參與散列;高位與低位進行異或,讓高位也得以參與散列運算,使得散列更加均勻。具體運算如下圖(圖中為了方便采用8位進行演示,32位同理):

img

對hashcode擾動之后需要對結果進行取模。HashMap在jdk1.8并不是簡單使用%進行取模,而是采用了另外一種更加高性能的方法。HashMap控制數組長度為2的整數次冪,好處是對hashcode進行求余運算和讓hashcode與數組長度-1進行位與運算是相同的效果。如下圖:

img

但位與運算的效率卻比求余高得多,從而提升了性能。在擴容運算中也利用到了此特性,后面會講。取模運算的源碼看到putVal()方法,該方法在put()方法中被調用:

  1. final V putVal(int hash, K key, V value, boolean onlyIfAbsent, 
  2.                boolean evict) { 
  3.     ... 
  4.     // 與數組長度-1進行位與運算,得到下標 
  5.     if ((p = tab[i = (n - 1) & hash]) == null
  6.         ... 

完整的hash計算過程可以參考下圖:

img

上面我們提到HashMap的數組長度為2的整數次冪,那么HashMap是如何控制數組的長度為2的整數次冪的?修改數組長度有兩種情況:

  1. 初始化時指定的長度
  2. 擴容時的長度增量

先看第一種情況。默認情況下,如未在HashMap構造器中指定長度,則初始長度為16。16是一個較為合適的經驗值,他是2的整數次冪,同時太小會頻繁觸發擴容、太大會浪費空間。如果指定一個非2的整數次冪,會自動轉化成大于該指定數的最小2的整數次冪。如指定6則轉化為8,指定11則轉化為16。結合源碼來分析,當我們初始化指定一個非2的整數次冪長度時,HashMap會調用tableSizeFor()方法:

  1. public HashMap(int initialCapacity, float loadFactor) { 
  2.     ... 
  3.     this.loadFactor = loadFactor; 
  4.     // 這里調用了tableSizeFor方法 
  5.     this.threshold = tableSizeFor(initialCapacity); 
  6.  
  7. static final int tableSizeFor(int cap) { 
  8.     // 注意這里必須減一 
  9.     int n = cap - 1; 
  10.     n |= n >>> 1; 
  11.     n |= n >>> 2; 
  12.     n |= n >>> 4; 
  13.     n |= n >>> 8; 
  14.     n |= n >>> 16; 
  15.     return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; 

tableSizeFor()方法的看起來很復雜,作用是使得最高位1后續的所有位都變為1,最后再+1則得到剛好大于initialCapacity的最小2的整數次冪數。如下圖(這里使用了8位進行模擬,32位也是同理):

img

那為什么必須要對cap進行-1之后再進行運算呢?如果指定的數剛好是2的整數次冪,如果沒有-1結果會變成比他大兩倍的數,如下:

  1. 00100 --高位1之后全變1--> 00111 --加1---> 01000 

第二種改變數組長度的情況是擴容。HashMap每次擴容的大小都是原來的兩倍,控制了數組大小一定是2的整數次冪,相關源碼如下:

  1. final Node<K,V>[] resize() { 
  2.     ... 
  3.     if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && 
  4.                  oldCap >= DEFAULT_INITIAL_CAPACITY) 
  5.             // 設置為原來的兩倍 
  6.             newThr = oldThr << 1; 
  7.     ... 

小結

  1. HashMap通過高16位與低16位進行異或運算來讓高位參與散列,提高散列效果;
  2. HashMap控制數組的長度為2的整數次冪來簡化取模運算,提高性能;
  3. HashMap通過控制初始化的數組長度為2的整數次冪、擴容為原來的2倍來控制數組長度一定為2的整數次冪。

哈希沖突解決方案

再優秀的hash算法永遠無法避免出現hash沖突。hash沖突指的是兩個不同的key經過hash計算之后得到的數組下標是相同的。解決hash沖突的方式很多,如開放定址法、再哈希法、公共溢出表法、鏈地址法。HashMap采用的是鏈地址法,jdk1.8之后還增加了紅黑樹的優化,如下圖:

img

出現沖突后會在當前節點形成鏈表,而當鏈表過長之后,會自動轉化成紅黑樹提高查找效率。紅黑樹是一個查找效率很高的數據結構,時間復雜度為O(logN),但紅黑樹只有在數據量較大時才能發揮它的優勢。關于紅黑樹的轉化,HashMap做了以下限制。

  • 當鏈表的長度>=8且數組長度>=64時,會把鏈表轉化成紅黑樹。
  • 當鏈表長度>=8,但數組長度<64時,會優先進行擴容,而不是轉化成紅黑樹。
  • 當紅黑樹節點數<=6,自動轉化成鏈表。

那就有了以下問題:

為什么需要數組長度到64才會轉化紅黑樹?

當數組長度較短時,如16,鏈表長度達到8已經是占用了最大限度的50%,意味著負載已經快要達到上限,此時如果轉化成紅黑樹,之后的擴容又會再一次把紅黑樹拆分平均到新的數組中,這樣非但沒有帶來性能的好處,反而會降低性能。所以在數組長度低于64時,優先進行擴容。

為什么要大于等于8轉化為紅黑樹,而不是7或9?

樹節點的比普通節點更大,在鏈表較短時紅黑樹并未能明顯體現性能優勢,反而會浪費空間,在鏈表較短是采用鏈表而不是紅黑樹。在理論數學計算中(裝載因子=0.75),鏈表的長度到達8的概率是百萬分之一;把7作為分水嶺,大于7轉化為紅黑樹,小于7轉化為鏈表。紅黑樹的出現是為了在某些極端的情況下,抗住大量的hash沖突,正常情況下使用鏈表是更加合適的。

注意,紅黑樹在jdk1.8之后出現的,jdk1.7采用的是數組+鏈表模式。

小結

  1. HashMap采用鏈地址法,當發生沖突時會轉化為鏈表,當鏈表過長會轉化為紅黑樹提高效率。
  2. HashMap對紅黑樹進行了限制,讓紅黑樹只有在極少數極端情況下進行抗壓。

擴容方案

當HashMap中的數據越來越多,那么發生hash沖突的概率也就會越來越高,通過數組擴容可以利用空間換時間,保持查找效率在常數時間復雜度。那什么時候進行擴容?由HashMap的一個關鍵參數控制:裝載因子。

裝載因子=HashMap中節點數/數組長度,他是一個比例值。當HashMap中節點數到達裝載因子這個比例時,就會觸發擴容;也就是說,裝載因子控制了當前數組能夠承載的節點數的閾值。如數組長度是16,裝載因子是0.75,那么可容納的節點數是16*0.75=12。裝載因子的數值大小需要仔細權衡。裝載因子越大,數組利用率越高,同時發生哈希沖突的概率也就越高;裝載因子越小,數組利用率降低,但發生哈希沖突的概率也降低了。所以裝載因子的大小需要權衡空間與時間之間的關系。在理論計算中,0.75是一個比較合適的數值,大于0.75哈希沖突的概率呈指數級別上升,而小于0.75沖突減少并不明顯。HashMap中的裝載因子的默認大小是0.75,沒有特殊要求的情況下,不建議修改他的值。

那么在到達閾值之后,HashMap是如何進行擴容的呢?HashMap會把數組長度擴展為原來的兩倍,再把舊數組的數據遷移到新的數組,而HashMap針對遷移做了優化:使用HashMap數組長度是2的整數次冪的特點,以一種更高效率的方式完成數據遷移。

JDK1.7之前的數據遷移比較簡單,就是遍歷所有的節點,把所有的節點依次通過hash函數計算新的下標,再插入到新數組的鏈表中。這樣會有兩個缺點:1、每個節點都需要進行一次求余計算;2、插入到新的數組時候采用的是頭插入法,在多線程環境下會形成鏈表環。jdk1.8之后進行了優化,原因在于他控制數組的長度始終是2的整數次冪,每次擴展數組都是原來的2倍,帶來的好處是key在新的數組的hash結果只有兩種:在原來的位置,或者在原來位置+原數組長度。具體為什么我們可以看下圖:

img

從圖中我們可以看到,在新數組中的hash結果,僅僅取決于高一位的數值。如果高一位是0,那么計算結果就是在原位置,而如果是1,則加上原數組的長度即可。這樣我們只需要判斷一個節點的高一位是1 or 0就可以得到他在新數組的位置,而不需要重復hash計算。HashMap把每個鏈表拆分成兩個鏈表,對應原位置或原位置+原數組長度,再分別插入到新的數組中,保留原來的節點順序,如下:

img

小結

  1. 裝載因子決定了HashMap擴容的閾值,需要權衡時間與空間,一般情況下保持0.75不作改動;
  2. HashMap擴容機制結合了數組長度為2的整數次冪的特點,以一種更高的效率完成數據遷移,同時避免頭插法造成鏈表環。

線程安全

HashMap作為一個集合,主要功能則為CRUD,也就是增刪查改數據,那么就肯定涉及到多線程并發訪問數據的情況。并發產生的問題,需要我們特別關注。

HashMap并不是線程安全的,在多線程的情況下無法保證數據的一致性。舉個例子:HashMap下標2的位置為null,線程A需要將節點X插入下標2的位置,在判斷是否為null之后,線程被掛起;此時線程B把新的節點Y插入到下標2的位置;恢復線程A,節點X會直接插入到下標2,覆蓋節點Y,導致數據丟失,如下圖:

jdk1.7及以前擴容時采用的是頭插法,這種方式插入速度快,但在多線程環境下會造成鏈表環,而鏈表環會在下一次插入時找不到鏈表尾而發生死循環。

那如果結果數據一致性問題呢?解決這個問題有三個方案:

  • 采用Hashtable
  • 調用Collections.synchronizeMap()方法來讓HashMap具有多線程能力
  • 采用ConcurrentHashMap

前兩個方案的思路是相似的,均是每個方法中,對整個對象進行上鎖。Hashtable是老一代的集合框架,很多的設計均以及落后,他在每一個方法中均加上了synchronize關鍵字保證線程安全。

  1. // Hashtable 
  2. public synchronized V get(Object key) {...} 
  3. public synchronized V put(K key, V value) {...} 
  4. public synchronized V remove(Object key) {...} 
  5. public synchronized V replace(K key, V value) {...} 
  6. ... 

第二種方法是返回一個SynchronizedMap對象,這個對象默認每個方法會鎖住整個對象。如下源碼:

img

這里的mutex是什么呢?直接看到構造器:

  1. final Object      mutex;        // Object on which to synchronize 
  2. SynchronizedMap(Map<K,V> m) { 
  3.     this.m = Objects.requireNonNull(m); 
  4.     // 默認為本對象 
  5.     mutex = this; 
  6. SynchronizedMap(Map<K,V> m, Object mutex) { 
  7.     this.m = m; 
  8.     this.mutex = mutex; 

可以看到默認鎖的就是本身,效果和Hashtable其實是一樣的。這種簡單粗暴鎖整個對象的方式造成的后果是:

  • 鎖是非常重量級的,會嚴重影響性能。
  • 同一時間只能有一個線程進行讀寫,限制了并發效率。

ConcurrentHashMap的設計就是為了解決此問題。他通過降低鎖粒度+CAS的方式來提高效率。簡單來說,ConcurrentHashMap鎖的并不是整個對象,而是一個數組的一個節點,那么其他線程訪問數組其他節點是不會互相影響,極大提高了并發效率;同時ConcurrentHashMap讀操作并不需要獲取鎖,如下圖:

img

關于ConcurrentHashMap和Hashtable的更多內容,限于篇幅,我會在另一篇文章講解。那么,使用了上述的三種解決方案是不是絕對線程安全?先觀察下面的代碼:

  1. ConcurrentHashMap<String, String> map = new ConcurrentHashMap<>(); 
  2. map.put("abc","123"); 
  3.  
  4. Thread1: 
  5. if (map.containsKey("abc")){ 
  6.     String s = map.get("abc"); 
  7.  
  8. Thread2: 
  9. map.remove("abc"); 

當Thread1調用containsKey之后釋放鎖,Thread2獲得鎖并把“abc”移除再釋放鎖,這個時候Thread1讀取到的s就是一個null了,也就出現了問題了。所以ConcurrentHashMap類或者Collections.synchronizeMap()方法或者Hashtable都只能在一定的限度上保證線程安全,而無法保證絕對線程安全。

關于線程安全,還有一個fast-fail問題,即快速失敗。當使用HashMap的迭代器遍歷HashMap時,如果此時HashMap發生了結構性改變,如插入新數據、移除數據、擴容等,那么Iteractor會拋出fast-fail異常,防止出現并發異常,在一定限度上保證了線程安全。如下源碼:

  1. final Node<K,V> nextNode() { 
  2.     ... 
  3.     if (modCount != expectedModCount) 
  4.         throw new ConcurrentModificationException(); 
  5.    ... 

創建Iteractor對象時會記錄HashMap的modCount變量,每當HashMap發生結構性改變時,modCount會加1。在迭代時判斷HashMap的modCount和自己保存的expectedModCount是否一致即可判斷是否發生了結構性改變。

fast-fail異常只能當做遍歷時的一種安全保證,而不能當做多線程并發訪問HashMap的手段。若有并發需求,還是需要使用上述的三種方法。

小結

  1. HashMap并不能保證線程安全,在多線程并發訪問下會出現意想不到的問題,如數據丟失等
  2. HashMap1.8采用尾插法進行擴容,防止出現鏈表環導致的死循環問題
  3. 解決并發問題的的方案有Hashtable、Collections.synchronizeMap()、ConcurrentHashMap。其中最佳解決方案是ConcurrentHashMap
  4. 上述解決方案并不能完全保證線程安全
  5. 快速失敗是HashMap迭代機制中的一種并發安全保證

源碼解析

關鍵變量的理解

HashMap源碼中有很多的內部變量,這些變量會在下面源碼分析中經常出現,首先需要理解這些變量的意義。

  1. // 存放數據的數組 
  2. transient Node<K,V>[] table
  3. // 存儲的鍵值對數目 
  4. transient int size
  5. // HashMap結構修改的次數,主要用于判斷fast-fail 
  6. transient int modCount; 
  7. // 最大限度存儲鍵值對的數目(threshodl=table.length*loadFactor),也稱為閾值 
  8. int threshold; 
  9. // 裝載因子,表示可最大容納數據數量的比例 
  10. final float loadFactor; 
  11. // 靜態內部類,HashMap存儲的節點類型;可存儲鍵值對,本身是個鏈表結構。 
  12. static class Node<K,V> implements Map.Entry<K,V> {...} 

擴容

HashMap源碼中把初始化操作也放到了擴容方法中,因而擴容方法源碼主要分為兩部分:確定新的數組大小、遷移數據。詳細的源碼分析如下,我打了非常詳細的注釋,可選擇查看。擴容的步驟在上述已經講過了,讀者可以自行結合源碼,分析HashMap是如何實現上述的設計。

  1. final Node<K,V>[] resize() { 
  2.     // 變量分別是原數組、原數組大小、原閾值;新數組大小、新閾值 
  3.     Node<K,V>[] oldTab = table
  4.     int oldCap = (oldTab == null) ? 0 : oldTab.length; 
  5.     int oldThr = threshold; 
  6.     int newCap, newThr = 0; 
  7.  
  8.     // 如果原數組長度大于0 
  9.     if (oldCap > 0) { 
  10.         // 如果已經超過了設置的最大長度(1<<30,也就是最大整型正數) 
  11.         if (oldCap >= MAXIMUM_CAPACITY) { 
  12.             // 直接把閾值設置為最大正數 
  13.             threshold = Integer.MAX_VALUE; 
  14.             return oldTab; 
  15.         } 
  16.         else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && 
  17.                  oldCap >= DEFAULT_INITIAL_CAPACITY) 
  18.             // 設置為原來的兩倍 
  19.             newThr = oldThr << 1;  
  20.     } 
  21.  
  22.     // 原數組長度為0,但最大限度不是0,把長度設置為閾值 
  23.     // 對應的情況就是新建HashMap的時候指定了數組長度 
  24.     else if (oldThr > 0)  
  25.         newCap = oldThr; 
  26.     // 第一次初始化,默認16和0.75 
  27.     // 對應使用默認構造器新建HashMap對象 
  28.     else {                
  29.         newCap = DEFAULT_INITIAL_CAPACITY; 
  30.         newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); 
  31.     } 
  32.     // 如果原數組長度小于16或者翻倍之后超過了最大限制長度,則重新計算閾值 
  33.     if (newThr == 0) { 
  34.         float ft = (float)newCap * loadFactor; 
  35.         newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? 
  36.                   (int)ft : Integer.MAX_VALUE); 
  37.     } 
  38.     threshold = newThr; 
  39.  
  40.     @SuppressWarnings({"rawtypes","unchecked"}) 
  41.     // 建立新的數組 
  42.     Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; 
  43.     table = newTab; 
  44.     if (oldTab != null) { 
  45.         // 循環遍歷原數組,并給每個節點計算新的位置 
  46.         for (int j = 0; j < oldCap; ++j) { 
  47.             Node<K,V> e; 
  48.             if ((e = oldTab[j]) != null) { 
  49.                 oldTab[j] = null
  50.                 // 如果他沒有后繼節點,那么直接使用新的數組長度取模得到新下標 
  51.                 if (e.next == null
  52.                     newTab[e.hash & (newCap - 1)] = e; 
  53.                 // 如果是紅黑樹,調用紅黑樹的拆解方法 
  54.                 else if (e instanceof TreeNode) 
  55.                     ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); 
  56.                 // 新的位置只有兩種可能:原位置,原位置+老數組長度 
  57.                 // 把原鏈表拆成兩個鏈表,然后再分別插入到新數組的兩個位置上 
  58.                 // 不用多次調用put方法 
  59.                 else {  
  60.                     // 分別是原位置不變的鏈表和原位置+原數組長度位置的鏈表 
  61.                     Node<K,V> loHead = null, loTail = null
  62.                     Node<K,V> hiHead = null, hiTail = null
  63.                     Node<K,V> next
  64.                     // 遍歷老鏈表,判斷新增判定位是1or0進行分類 
  65.                     do { 
  66.                         next = e.next
  67.                         if ((e.hash & oldCap) == 0) { 
  68.                             if (loTail == null
  69.                                 loHead = e; 
  70.                             else 
  71.                                 loTail.next = e; 
  72.                             loTail = e; 
  73.                         } 
  74.                         else { 
  75.                             if (hiTail == null
  76.                                 hiHead = e; 
  77.                             else 
  78.                                 hiTail.next = e; 
  79.                             hiTail = e; 
  80.                         } 
  81.                     } while ((e = next) != null); 
  82.                     // 最后賦值給新的數組 
  83.                     if (loTail != null) { 
  84.                         loTail.next = null
  85.                         newTab[j] = loHead; 
  86.                     } 
  87.                     if (hiTail != null) { 
  88.                         hiTail.next = null
  89.                         newTab[j + oldCap] = hiHead; 
  90.                     } 
  91.                 } 
  92.             } 
  93.         } 
  94.     } 
  95.     // 返回新數組 
  96.     return newTab; 

添加數值

調用put()方法添加鍵值對,最終會調用putVal()來真正實現添加邏輯。代碼解析如下:

  1. public V put(K key, V value) { 
  2.     // 獲取hash值,再調用putVal方法插入數據 
  3.     return putVal(hash(key), key, value, falsetrue); 
  4.  
  5. // onlyIfAbsent表示是否覆蓋舊值,true表示不覆蓋,false表示覆蓋,默認為false 
  6. // evict和LinkHashMap的回調方法有關,不在本文討論范圍 
  7. final V putVal(int hash, K key, V value, boolean onlyIfAbsent, 
  8.                boolean evict) { 
  9.  
  10.     // tab是HashMap內部數組,n是數組的長度,i是要插入的下標,p是該下標對應的節點 
  11.     Node<K,V>[] tab; Node<K,V> p; int n, i; 
  12.  
  13.     // 判斷數組是否是null或者是否是空,若是,則調用resize()方法進行擴容 
  14.     if ((tab = table) == null || (n = tab.length) == 0) 
  15.         n = (tab = resize()).length; 
  16.  
  17.     // 使用位與運算代替取模得到下標 
  18.     // 判斷當前下標是否是null,若是則創建節點直接插入,若不是,進入下面else邏輯 
  19.     if ((p = tab[i = (n - 1) & hash]) == null
  20.         tab[i] = newNode(hash, key, value, null); 
  21.     else { 
  22.  
  23.         // e表示和當前key相同的節點,若不存在該節點則為null 
  24.         // k是當前數組下標節點的key 
  25.         Node<K,V> e; K k; 
  26.  
  27.         // 判斷當前節點與要插入的key是否相同,是則表示找到了已經存在的key 
  28.         if (p.hash == hash && 
  29.             ((k = p.key) == key || (key != null && key.equals(k)))) 
  30.             e = p; 
  31.         // 判斷該節點是否是樹節點,如果是調用紅黑樹的方法進行插入 
  32.         else if (p instanceof TreeNode) 
  33.             e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); 
  34.         // 最后一種情況是直接鏈表插入 
  35.         else { 
  36.             for (int binCount = 0; ; ++binCount) { 
  37.                 if ((e = p.next) == null) { 
  38.                     p.next = newNode(hash, key, value, null); 
  39.                     // 長度大于等于8時轉化為紅黑樹 
  40.                     // 注意,treeifyBin方法中會進行數組長度判斷, 
  41.                     // 若小于64,則優先進行數組擴容而不是轉化為樹 
  42.                     if (binCount >= TREEIFY_THRESHOLD - 1)  
  43.                         treeifyBin(tab, hash); 
  44.                     break; 
  45.                 } 
  46.                 // 找到相同的直接跳出循環 
  47.                 if (e.hash == hash && 
  48.                     ((k = e.key) == key || (key != null && key.equals(k)))) 
  49.                     break; 
  50.                 p = e; 
  51.             } 
  52.         } 
  53.  
  54.         // 如果找到相同的key節點,則判斷onlyIfAbsent和舊值是否為null 
  55.         // 執行更新或者不操作,最后返回舊值 
  56.         if (e != null) {  
  57.             V oldValue = e.value; 
  58.             if (!onlyIfAbsent || oldValue == null
  59.                 e.value = value; 
  60.             afterNodeAccess(e); 
  61.             return oldValue; 
  62.         } 
  63.     } 
  64.  
  65.     // 如果不是更新舊值,說明HashMap中鍵值對數量發生變化 
  66.     // modCount數值+1表示結構改變 
  67.     ++modCount; 
  68.     // 判斷長度是否達到最大限度,如果是則進行擴容 
  69.     if (++size > threshold) 
  70.         resize(); 
  71.     // 最后返回null(afterNodeInsertion是LinkHashMap的回調) 
  72.     afterNodeInsertion(evict); 
  73.     return null

代碼中關于每個步驟有了詳細的解釋,這里來總結一下:

  1. 總體上分為兩種情況:找到相同的key和找不到相同的key。找了需要判斷是否更新并返回舊value,沒找到需要插入新的Node、更新節點數并判斷是否需要擴容。
  2. 查找分為三種情況:數組、鏈表、紅黑樹。數組下標i位置不為空且不等于key,那么就需要判斷是否樹節點還是鏈表節點并進行查找。
  3. 鏈表到達一定長度后需要擴展為紅黑樹,當且僅當鏈表長度>=8且數組長度>=64。

最后畫一張圖總體再加深一下整個流程的印象:

img

其他問題

為什么jdk1.7以前控制數組的長度為素數,而jdk1.8之后卻采用的是2的整數次冪?

答:素數長度可以有效減少哈希沖突;JDK1.8之后采用2的整數次冪是為了提高求余和擴容的效率,同時結合高低位異或的方法使得哈希散列更加均勻。

為何素數可以減少哈希沖突?若能保證key的hashcode在每個數字之間都是均勻分布,那么無論是素數還是合數都是相同的效果。例如hashcode在1~20均勻分布,那么無論長度是合數4,還是素數5,分布都是均勻的。而如果hashcode之間的間隔都是2,如1,3,5...,那么長度為4的數組,位置2和位置4兩個下標無法放入數據,而長度為5的數組則沒有這個問題。長度為合數的數組會使間隔為其因子的hashcode聚集出現,從而使得散列效果降低。

為什么插入HashMap的數據需要實現hashcode和equals方法?對這兩個方法有什么要求?

答:通過hashcode來確定插入下標,通過equals比較來尋找數據;兩個相等的key的hashcode必須相等,但擁有相同的hashcode的對象不一定相等。

這里需要區分好他們之間的區別:hashcode就像一個人的名,相同的人名字肯定相等,但是相同的名字不一定是同個人;equals比較內容是否相同,一般由對象覆蓋重寫,默認情況下比較的是引用地址;“==”引用隊形比較的是引用地址是否相同,值對象比較的是值是否相同。

HashMap中需要使用hashcode來獲取key的下標,如果兩個相同的對象的hashcode不同,那么會造成HashMap中存在相同的key;所以equals返回相同的key他們的hashcode一定要相同。HashMap比較兩個元素是否相同采用了三種比較方法結合:p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))) 。

最后

關于HashMap的內容很難在一篇文章講完,他的設計到的內容非常多,如線程安全的設計可以延伸到ConcurrentHashMap與Hashtable,這兩個類與HashMap的區別以及內部設計均非常重要,這些內容我將在另外的文章做補充。最后,希望文章對你有幫助。

 

責任編輯:姜華 來源: 愛寫Bug的麥洛
相關推薦

2018-04-11 14:30:33

2018-05-14 22:58:14

戴爾

2017-02-23 08:00:04

智能語音Click

2021-03-01 12:06:12

Nginx命令Linux

2023-05-06 06:47:46

Bing聊天機器人

2020-06-08 17:35:27

Redis集群互聯網

2021-12-27 07:59:50

ECMAScript JSON模塊Node.js

2021-11-01 07:50:44

TomcatWeb應用

2022-01-11 12:13:33

JavaScript編程語言

2021-09-17 12:18:53

NginxJavaScript前端

2019-02-20 10:43:40

Android

2017-02-20 10:17:53

華為

2019-06-17 08:30:09

TCPIP通信協議

2015-07-21 16:37:30

傳統互聯網

2020-03-10 13:35:23

Gihub搜索開源

2022-04-08 08:11:28

Python代碼

2021-06-03 09:30:30

Python操作注冊表regedit

2020-04-27 09:40:43

開源項目 Bug

2017-03-17 07:05:00

Windows Vis生命30天

2019-11-25 21:53:48

代碼算法BUG
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲一区高清 | 国产一区二区三区免费 | 成人小视频在线观看 | 日韩欧美视频免费在线观看 | av网址在线 | 北条麻妃一区二区三区在线视频 | 日本一区二区三区免费观看 | 综合天天久久 | 久久综合影院 | 欧美一区二区视频 | 亚洲国产69| 美女张开腿露出尿口 | 亚洲欧美激情精品一区二区 | 91激情电影 | 精品伦精品一区二区三区视频 | 成人精品久久日伦片大全免费 | 成人免费视频网站在线看 | 国产精品1区2区3区 一区中文字幕 | 99在线免费观看视频 | 国产精品一区二区视频 | 成人h视频在线 | 日本三级网站在线观看 | 久久久国产一区二区三区 | 免费黄色日本 | 亚洲视频免费 | 久久夜夜| 欧美性生活一区二区三区 | 91在线免费视频 | 国产精品一区二区在线播放 | 国产精品久久国产精品久久 | 国产999精品久久久 午夜天堂精品久久久久 | 麻豆久久久9性大片 | www日本高清| 国产精品网页 | 男女污污网站 | 午夜精品视频 | 狠狠夜夜| 四虎影视免费在线 | 国产一区二区三区视频在线观看 | 国产美女视频黄a视频免费 国产精品福利视频 | 国产高清精品一区二区三区 |