天天看點

【1】Jdk1.8中的HashMap實作原理

HashMap概述

HashMap是基于哈希表的Map接口的非同步實作。此實作提供所有可選的映射操作,并允許使用null值和null鍵。此類不保證映射的順序,特别是它不保證該順序恒久不變。

内部實作

HashMap的資料結構(字段)

在Java程式設計語言中,最基本的結構就是兩種,一個是數組,另外一個是模拟指針(引用),所有的資料結構都可以用這兩個基本結構來構造的,HashMap也不例外。HashMap實際上是一個“連結清單散列”的資料結構,即數組和連結清單的結構,但是在jdk1.8裡 

加入了紅黑樹的實作,當連結清單的長度大于8時,轉換為紅黑樹的結構。

從上圖中可以看出,java中HashMap采用了鍊位址法。鍊位址法,簡單來說,就是數組加連結清單的結合。在每個數組元素上都一個連結清單結構,當資料被Hash後,得到數組下标,把資料放在對應下标元素的連結清單上。

*/
    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;//用于定位數組索引的位置
        final K key;
        V value;
        Node<K,V> next;//連結清單的下一個Node

        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }      

Node是HashMap的一個内部類,實作了Map.Entry接口,本質是就是一個映射(鍵值對)。

有時兩個key會定位到相同的位置,表示發生了Hash碰撞。當然Hash算法計算結果越分散均勻,Hash碰撞的機率就越小,map的存取效率就會越高。

HashMap類中有一個非常重要的字段,就是 Node[] table,即哈希桶數組,明顯它是一個Node的數組。

如果哈希桶數組很大,即使較差的Hash算法也會比較分散,如果哈希桶數組數組很小,即使好的Hash算法也會出現較多碰撞,是以就需要在空間成本和時間成本之間權衡,其實就是在根據實際情況确定哈希桶數組的大小,并在此基礎上設計好的hash算法減少Hash碰撞。那麼通過什麼方式來控制map使得Hash碰撞的機率又小,哈希桶數組(Node[] table)占用空間又少呢?答案就是好的Hash算法和擴容機制。

在了解Hash和擴容流程之前,我們得先了解下HashMap的幾個字段。從HashMap的預設構造函數源碼可知,構造函數就是對下面幾個字段進行初始化,源碼如下:

int threshold;             // 所能容納的key-value對極限 
 final float loadFactor;    // 負載因子
 int modCount;  
 int size;      

首先,Node[] table的初始化長度length(預設值是16),Load factor為負載因子(預設值是0.75),threshold是HashMap所能容納的最大資料量的Node(鍵值對)個數。threshold = length * Load factor。也就是說,在數組定義好長度之後,負載因子越大,所能容納的鍵值對個數越多。

結合負載因子的定義公式可知,threshold就是在此Load factor和length(數組長度)對應下允許的最大元素數目,超過這個數目就重新resize(擴容),擴容後的HashMap容量是之前容量的兩倍。預設的負載因子0.75是對空間和時間效率的一個平衡選擇,建議大家不要修改,除非在時間和空間比較特殊的情況下,如果記憶體空間很多而又對時間效率要求很高,可以降低負載因子Load factor的值;相反,如果記憶體空間緊張而對時間效率要求不高,可以增加負載因子loadFactor的值,這個值可以大于1。

size這個字段其實很好了解,就是HashMap中實際存在的鍵值對數量。注意和table的長度length、容納最大鍵值對數量threshold的差別。而modCount字段主要用來記錄HashMap内部結構發生變化的次數,主要用于疊代的快速失敗。強調一點,内部結構發生變化指的是結構發生變化,例如put新鍵值對,但是某個key對應的value值被覆寫不屬于結構變化。

在HashMap中,哈希桶數組table的長度length大小必須為2的n次方(一定是合數),這是一種非正常的設計,正常的設計是把桶的大小設計為素數。相對來說素數導緻沖突的機率要小于合數,具體證明可以參考http://blog.csdn.net/liuqiyao_01/article/details/14475159,Hashtable初始化桶大小為11,就是桶大小設計為素數的應用(Hashtable擴容後不能保證還是素數)。HashMap采用這種非正常設計,主要是為了在取模和擴容時做優化,同時為了減少沖突,HashMap定位哈希桶索引位置時,也加入了高位參與運算的過程。

這裡存在一個問題,即使負載因子和Hash算法設計的再合理,也免不了會出現拉鍊過長的情況,一旦出現拉鍊過長,則會嚴重影響HashMap的性能。于是,在JDK1.8版本中,對資料結構做了進一步的優化,引入了紅黑樹。而當連結清單長度太長(預設超過8)時,連結清單就轉換為紅黑樹,利用紅黑樹快速增删改查的特點提高HashMap的性能,其中會用到紅黑樹的插入、删除、查找等算法

方法:

1 确定哈希桶數組索引位置

代碼實作:

//方法一:
static final int hash(Object key) {   //jdk1.8 & jdk1.7
     int h;
     // h = key.hashCode() 為第一步 取hashCode值
     // h ^ (h >>> 16)  為第二步 高位參與運算
     return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
//方法二:
static int indexFor(int h, int length) {  //jdk1.7的源碼,jdk1.8沒有這個方法,但是實作原理一樣的
     return h & (length-1);  //第三步 取模運算
}      

這裡的Hash算法本質上就是三步:取key的hashCode值、高位運算、取模運算。

對于任意給定的對象,隻要它的hashCode()傳回值相同,那麼程式調用方法一所計算得到的Hash碼值總是相同的。我們首先想到的就是把hash值對數組長度取模運算,這樣一來,元素的分布相對來說是比較均勻的。但是,模運算的消耗還是比較大的,在HashMap中是這樣做的:調用方法二來計算該對象應該儲存在table數組的哪個索引處。

這個方法非常巧妙,它通過h & (table.length -1)來得到該對象的儲存位,而HashMap底層數組的長度總是2的n次方,這是HashMap在速度上的優化。當length總是2的n次方時,h& (length-1)運算等價于對length取模,也就是h%length,但是&比%具有更高的效率。

在JDK1.8的實作中,優化了高位運算的算法,通過hashCode()的高16位異或低16位實作的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、品質來考慮的,這麼做可以在數組table的length比較小的時候,也能保證考慮到高低Bit都參與到Hash的計算中,同時不會有太大的開銷。

下面舉例說明下,n為table的長度。

2 HashMap的put方法實作

put函數大緻的思路為:

  1. 對key的hashCode()做hash,然後再計算index;
  2. 如果沒碰撞直接放到bucket裡;
  3. 如果碰撞了,以連結清單的形式存在buckets後;
  4. 如果碰撞導緻連結清單過長(大于等于TREEIFY_THRESHOLD),就把連結清單轉換成紅黑樹;
  5. 如果節點已經存在就替換old value(保證key的唯一性)
  6. 如果bucket滿了(超過load factor*current capacity),就要resize。

具體代碼實作如下:

public V put(K key, V value) {

        return putVal(hash(key), key, value, false, true);
    }
    /**
    *生成hash的方法
    */
    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //判斷table是否為空,
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;//建立一個新的table數組,并且擷取該數組的長度
        //根據鍵值key計算hash值得到插入的數組索引i,如果table[i]==null,直接建立節點添加   
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {//如果對應的節點存在
            Node<K,V> e; K k;
            //判斷table[i]的首個元素是否和key一樣,如果相同直接覆寫value
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            //判斷table[i] 是否為treeNode,即table[i] 是否是紅黑樹,如果是紅黑樹,則直接在樹中插入鍵值對
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
           // 該鍊為連結清單
            else {
            //周遊table[i],判斷連結清單長度是否大于TREEIFY_THRESHOLD(預設值為8),大于8的話把連結清單轉換為紅黑樹,在紅黑樹中執行插入操作,否則進行連結清單的插入操作;周遊過程中若發現key已經存在直接覆寫value即可;
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            // 寫入
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        // 插入成功後,判斷實際存在的鍵值對數量size是否超多了最大容量threshold,如果超過,進行擴容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }      

3 HashMap的get方法實作

思路如下:

bucket裡的第一個節點,直接命中;

如果有沖突,則通過key.equals(k)去查找對應的entry 

若為樹,則在樹中通過key.equals(k)查找,O(logn); 

若為連結清單,則在連結清單中通過key.equals(k)查找,O(n)。

public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }

final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            // 直接命中
            if (first.hash == hash && // 每次都是校驗第一個node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
           // 未命中
            if ((e = first.next) != null) {
            // 在樹中擷取
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                // 在連結清單中擷取
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }      

4 擴容機制

擴容(resize)就是重新計算容量,向HashMap對象裡不停的添加元素,而HashMap對象内部的數組無法裝載更多的元素時,對象就需要擴大數組的長度,以便能裝入更多的元素。當然Java裡的數組是無法自動擴容的,方法是使用一個新的數組代替已有的容量小的數組,就像我們用一個小桶裝水,如果想裝更多的水,就得換大水桶。

我們分析下resize的源碼,鑒于JDK1.8融入了紅黑樹,較複雜,為了便于了解我們仍然使用JDK1.7的代碼,好了解一些,本質上差別不大,具體差別後文再說。

void resize(int newCapacity) {   //傳入新的容量
     Entry[] oldTable = table;    //引用擴容前的Entry數組
     int oldCapacity = oldTable.length;         
     if (oldCapacity == MAXIMUM_CAPACITY) {  //擴容前的數組大小如果已經達到最大(2^30)了
          threshold = Integer.MAX_VALUE; //修改門檻值為int的最大值(2^31-1),這樣以後就不會擴容了
         return;
     }

     Entry[] newTable = new Entry[newCapacity];  //初始化一個新的Entry數組
     transfer(newTable);                         //!!将資料轉移到新的Entry數組裡
     table = newTable;                           //HashMap的table屬性引用新的Entry數組
   threshold = (int)(newCapacity * loadFactor);//修改門檻值
}      

這裡就是使用一個容量更大的數組來代替已有的容量小的數組,transfer()方法将原有Entry數組的元素拷貝到新的Entry數組裡。

void transfer(Entry[] newTable) {
      Entry[] src = table;                   //src引用了舊的Entry數組
      int newCapacity = newTable.length;
      for (int j = 0; j < src.length; j++) { //周遊舊的Entry數組
          Entry<K,V> e = src[j];             //取得舊Entry數組的每個元素
          if (e != null) {
              src[j] = null;//釋放舊Entry數組的對象引用(for循環後,舊的Entry數組不再引用任何對象)
              do {
                  Entry<K,V> next = e.next;
                 int i = indexFor(e.hash, newCapacity); //!!重新計算每個元素在數組中的位置
                 e.next = newTable[i]; //标記[1]
                 newTable[i] = e;      //将元素放在數組上
                 e = next;             //通路下一個Entry鍊上的元素
             } while (e != null);
         }
     }
 }      

newTable[i]的引用賦給了e.next,也就是使用了單連結清單的頭插入方式,同一位置上新元素總會被放在連結清單的頭部位置;這樣先放在一個索引上的元素終會被放到Entry鍊的尾部(如果發生了hash沖突的話),這一點和Jdk1.8有差別,下文詳解。在舊數組中同一條Entry鍊上的元素,通過重新計算索引位置後,有可能被放到了新數組的不同位置上。

下面舉個例子說明下擴容過程。假設了我們的hash算法就是簡單的用key mod 一下表的大小(也就是數組的長度)。其中的哈希桶數組table的size=2, 是以key = 3、7、5,put順序依次為 5、7、3。在mod 2以後都沖突在table[1]這裡了。這裡假設負載因子 loadFactor=1,即當鍵值對的實際大小size 大于 table的實際大小時進行擴容。接下來的三個步驟是哈希桶數組 resize成4,然後所有的Node重新rehash的過程。

下面我們講解下JDK1.8做了哪些優化。經過觀測可以發現,我們使用的是2次幂的擴充(指長度擴為原來2倍),是以,元素的位置要麼是在原位置,要麼是在原位置再移動2次幂的位置。看下圖可以明白這句話的意思,n為table的長度,圖(a)表示擴容前的key1和key2兩種key确定索引位置的示例,圖(b)表示擴容後key1和key2兩種key确定索引位置的示例,其中hash1是key1對應的哈希與高位運算結果。

元素在重新計算hash之後,因為n變為2倍,那麼n-1的mask範圍在高位多1bit(紅色),是以新的index就會發生這樣的變化:

是以,我們在擴充HashMap的時候,不需要像JDK1.7的實作那樣重新計算hash,隻需要看看原來的hash值在新增的那個bit位是1還是0就好了,是0的話索引沒變,是1的話索引變成“原索引+oldCap”,可以看看下圖為16擴充為32的resize示意圖:

這個設計确實非常的巧妙,既省去了重新計算hash值的時間,而且同時,由于新增的1bit是0還是1可以認為是随機的,是以resize的過程,均勻的把之前的沖突的節點分散到新的bucket了。這一塊就是JDK1.8新增的優化點。有一點注意差別,JDK1.7中rehash的時候,舊連結清單遷移新連結清單的時候,如果在新表的數組索引位置相同,則連結清單元素會倒置,但是從上圖可以看出,JDK1.8不會倒置。有興趣的同學可以研究下JDK1.8的resize源碼,寫的很贊,如下:

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    if (oldCap > 0) {
        // 超過最大值就不再擴充了,就隻好随你碰撞去吧
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 沒超過最大值,就擴充為原來的2倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    // 計算新的resize上限
    if (newThr == 0) {

        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    if (oldTab != null) {
        // 把每個bucket都移動到新的buckets中
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        // 原索引  oldCap - 1:   0 1111     oldCap : 1 0000       判斷 key的 hash值的那一位是否為1分為兩類
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        // 原索引+oldCap
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    // 原索引放到bucket裡
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    // 原索引+oldCap放到bucket裡
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}      

線程安全性

在多線程使用場景中,應該盡量避免使用線程不安全的HashMap,而使用線程安全的ConcurrentHashMap。那麼為什麼說HashMap是線程不安全的,下面舉例子說明在并發的多線程使用場景中使用HashMap可能造成死循環。代碼例子如下(便于了解,仍然使用JDK1.7的環境):

public class HashMapInfiniteLoop {  

    private static HashMap<Integer,String> map = new HashMap<Integer,String>(2,0.75f);  
    public static void main(String[] args) {  
        map.put(5, "C");  

        new Thread("Thread1") {  
            public void run() {  
                map.put(7, "B");  
                System.out.println(map);  
            };  
        }.start();  
        new Thread("Thread2") {  
            public void run() {  
                map.put(3, "A);  
                System.out.println(map);  
            };  
        }.start();        
    }  
}      

其中,map初始化為一個長度為2的數組,loadFactor=0.75,threshold=2*0.75=1,也就是說當put第二個key的時候,map就需要進行resize。

通過設定斷點讓線程1和線程2同時debug到transfer方法(3.3小節代碼塊)的首行。注意此時兩個線程已經成功添加資料。放開thread1的斷點至transfer方法的“Entry next = e.next;” 這一行;然後放開線程2的的斷點,讓線程2進行resize。結果如下圖。

【1】Jdk1.8中的HashMap實作原理

注意,Thread1的 e 指向了key(3),而next指向了key(7),其線上程二rehash後,指向了線程二重組後的連結清單。

線程一被排程回來執行,先是執行 newTalbe[i] = e, 然後是e = next,導緻了e指向了key(7),而下一次循環的next = e.next導緻了next指向了key(3)。

【1】Jdk1.8中的HashMap實作原理

e.next = newTable[i] 導緻 key(3).next 指向了 key(7)。注意:此時的key(7).next 已經指向了key(3), 環形連結清單就這樣出現了。

【1】Jdk1.8中的HashMap實作原理

于是,當我們用線程一調用map.get(11)時,悲劇就出現了——Infinite Loop。

JDK1.8與JDK1.7的性能對比

HashMap中,如果key經過hash算法得出的數組索引位置全部不相同,即Hash算法非常好,那樣的話,getKey方法的時間複雜度就是O(1),如果Hash算法技術的結果碰撞非常多,假如Hash算極其差,所有的Hash算法結果得出的索引位置一樣,那樣所有的鍵值對都集中到一個桶中,或者在一個連結清單中,或者在一個紅黑樹中,時間複雜度分别為O(n)和O(lgn)。 鑒于JDK1.8做了多方面的優化,總體性能優于JDK1.7,下面我們從兩個方面用例子證明這一點。

Hash較均勻的情況

為了便于測試,我們先寫一個類Key,如下:

public class HashMapInfiniteLoop {  

    private static HashMap<Integer,String> map = new HashMap<Integer,String>(2,0.75f);  
    public static void main(String[] args) {  
        map.put(5, "C");  

        new Thread("Thread1") {  
            public void run() {  
                map.put(7, "B");  
                System.out.println(map);  
            };  
        }.start();  
        new Thread("Thread2") {  
            public void run() {  
                map.put(3, "A);  
                System.out.println(map);  
            };  
        }.start();        
    }  
}      

這個類複寫了equals方法,并且提供了相當好的hashCode函數,任何一個值的hashCode都不會相同,因為直接使用value當做hashcode。為了避免頻繁的GC,我将不變的Key執行個體緩存了起來,而不是一遍一遍的建立它們。代碼如下:

public class Keys {

    public static final int MAX_KEY = 10_000_000;
    private static final Key[] KEYS_CACHE = new Key[MAX_KEY];

    static {
        for (int i = 0; i < MAX_KEY; ++i) {
            KEYS_CACHE[i] = new Key(i);
        }
    }

    public static Key of(int value) {
        return KEYS_CACHE[value];
    }
}      

現在開始我們的試驗,測試需要做的僅僅是,建立不同size的HashMap(1、10、100、......10000000),屏蔽了擴容的情況,代碼如下:

static void test(int mapSize) {

        HashMap<Key, Integer> map = new HashMap<Key,Integer>(mapSize);
        for (int i = 0; i < mapSize; ++i) {
            map.put(Keys.of(i), i);
        }

        long beginTime = System.nanoTime(); //擷取納秒
        for (int i = 0; i < mapSize; i++) {
            map.get(Keys.of(i));
        }
        long endTime = System.nanoTime();
        System.out.println(endTime - beginTime);
    }

    public static void main(String[] args) {
        for(int i=10;i<= 1000 0000;i*= 10){
            test(i);
        }
    }      

在測試中會查找不同的值,然後度量花費的時間,為了計算getKey的平均時間,我們周遊所有的get方法,計算總的時間,除以key的數量,計算一個平均值,主要用來比較,絕對值可能會受很多環境因素的影響。結果如下:

【1】Jdk1.8中的HashMap實作原理

通過觀測測試結果可知,JDK1.8的性能要高于JDK1.7 15%以上,在某些size的區域上,甚至高于100%。由于Hash算法較均勻,JDK1.8引入的紅黑樹效果不明顯,下面我們看看Hash不均勻的的情況。

Hash極不均勻的情況

假設我們又一個非常差的Key,它們所有的執行個體都傳回相同的hashCode值。這是使用HashMap最壞的情況。代碼修改如下:

class Key implements Comparable<Key> {

    //...

    @Override
    public int hashCode() {
        return 1;
    }
}
           

仍然執行main方法,得出的結果如下表所示:

【1】Jdk1.8中的HashMap實作原理

從表中結果中可知,随着size的變大,JDK1.7的花費時間是增長的趨勢,而JDK1.8是明顯的降低趨勢,并且呈現對數增長穩定。當一個連結清單太長的時候,HashMap會動态的将它替換成一個紅黑樹,這話的話會将時間複雜度從O(n)降為O(logn)。hash算法均勻和不均勻所花費的時間明顯也不相同,這兩種情況的相對比較,可以說明一個好的hash算法的重要性。

測試環境:處理器為2.2 GHz Intel Core i7,記憶體為16 GB 1600 MHz DDR3,SSD硬碟,使用預設的JVM參數,運作在64位的OS X 10.10.1上。

小結

(1) 擴容是一個特别耗性能的操作,是以當程式員在使用HashMap的時候,估算map的大小,初始化的時候給一個大緻的數值,避免map進行頻繁的擴容。

(2) 負載因子是可以修改的,也可以大于1,但是建議不要輕易修改,除非情況非常特殊。

(3) HashMap是線程不安全的,不要在并發的環境中同時操作HashMap,建議使用ConcurrentHashMap。

(4) JDK1.8引入紅黑樹大程度優化了HashMap的性能。

(5) 還沒更新JDK1.8的,現在開始更新吧。HashMap的性能提升僅僅是JDK1.8的冰山一角。

總結

我們現在可以回答開始的幾個問題,加深對HashMap的了解:

    1. 什麼時候會使用HashMap?他有什麼特點?
      是基于Map接口的實作,存儲鍵值對時,它可以接收null的鍵值,是非同步的,HashMap存儲着Entry(hash, key, value, next)對象。
    2. 你知道HashMap的工作原理嗎?
      通過hash的方法,通過put和get存儲和擷取對象。存儲對象時,我們将K/V傳給put方法時,它調用hashCode計算hash進而得到bucket位置,進一步存儲,HashMap會根據目前bucket的占用情況自動調整容量(超過Load Facotr則resize為原來的2倍)。擷取對象時,我們将K傳給get,它調用hashCode計算hash進而得到bucket位置,并進一步調用equals()方法确定鍵值對。如果發生碰撞的時候,Hashmap通過連結清單将産生碰撞沖突的元素組織起來,在Java 8中,如果一個bucket中碰撞沖突的元素超過某個限制(預設是8),則使用紅黑樹來替換連結清單,進而提高速度。
    3. 你知道get和put的原理嗎?equals()和hashCode()的都有什麼作用?
      通過對key的hashCode()進行hashing,并計算下标( n-1 & hash),進而獲得buckets的位置。如果産生碰撞,則利用key.equals()方法去連結清單或樹中去查找對應的節點
    4. 你知道hash的實作嗎?為什麼要這樣實作?
      在Java 1.8的實作中,是通過hashCode()的高16位異或低16位實作的:(h = k.hashCode()) ^ (h >>> 16),主要是從速度、功效、品質來考慮的,這麼做可以在bucket的n比較小的時候,也能保證考慮到高低bit都參與到hash的計算中,同時不會有太大的開銷。
    5. 如果HashMap的大小超過了負載因子(load factor)定義的容量,怎麼辦?

      如果超過了負載因子(預設0.75),則會重新resize一個原來長度兩倍的HashMap,并且重新調用hash方法。 

      關于Java集合的小抄中是這樣描述的: 

      以Entry[]數組實作的哈希桶數組,用Key的哈希值取模桶數組的大小可得到數組下标。 

      插入元素時,如果兩條Key落在同一個桶(比如哈希值1和17取模16後都屬于第一個哈希桶),Entry用一個next屬性實作多個Entry以單向連結清單存放,後入桶的Entry将next指向桶目前的Entry。 

      查找哈希值為17的key時,先定位到第一個哈希桶,然後以連結清單周遊桶裡所有元素,逐個比較其key值。 

      當Entry數量達到桶數量的75%時(很多文章說使用的桶數量達到了75%,但看代碼不是),會成倍擴容桶數組,并重新配置設定所有原來的Entry,是以這裡也最好有個預估值。 

      取模用位運算(hash & (arrayLength-1))會比較快,是以數組的大小永遠是2的N次方, 你随便給一個初始值比如17會轉為32。預設第一次放入元素時的初始值是16。 

      iterator()時順着哈希桶數組來周遊,看起來是個亂序。

    6. 當兩個對象的hashcode相同會發生什麼?
      因為hashcode相同,是以它們的bucket位置相同,‘碰撞’會發生。因為HashMap使用連結清單存儲對象,這個Entry(包含有鍵值對的Map.Entry對象)會存儲在連結清單中。
    7. 如果兩個鍵的hashcode相同,你如何擷取值對象?
      找到bucket位置之後,會調用keys.equals()方法去找到連結清單中正确的節點,最終找到要找的值對象。是以,設計HashMap的key類型時,如果使用不可變的、聲明作final的對象,并且采用合适的equals()和hashCode()方法的話,将會減少碰撞的發生,提高效率。不可變性能夠緩存不同鍵的hashcode,這将提高整個擷取對象的速度,使用String,Interger這樣的wrapper類作為鍵是非常好的選擇
    8. 預設的負載因子大小為0.75,也就是說,當一個map填滿了75%的bucket時候,和其它集合類(如ArrayList等)一樣,将會建立原來HashMap大小的兩倍的bucket數組,來重新調整map的大小,并将原來的對象放入新的bucket數組中。這個過程叫作rehashing,因為它調用hash方法找到新的bucket位置
    9. 你了解重新調整HashMap大小存在什麼問題嗎?
      當重新調整HashMap大小的時候,确實存在條件競争,因為如果兩個線程都發現HashMap需要重新調整大小了,它們會同時試着調整大小。在調整大小的過程中,存儲在連結清單中的元素的次序會反過來,因為移動到新的bucket位置的時候,HashMap并不會将元素放在連結清單的尾部,而是放在頭部,這是為了避免尾部周遊(tail traversing)。如果條件競争發生了,那麼就死循環了。是以在并發環境下,我們使用CurrentHashMap來替代HashMap
    10. 為什麼String, Interger這樣的wrapper類适合作為鍵?
      因為String是不可變的,也是final的,而且已經重寫了equals()和hashCode()方法了。其他的wrapper類也有這個特點。不可變性是必要的,因為為了要計算hashCode(),就要防止鍵值改變,如果鍵值在放入時和擷取時傳回不同的hashcode的話,那麼就不能從HashMap中找到你想要的對象。不可變性還有其他的優點如線程安全。如果你可以僅僅通過将某個field聲明成final就能保證hashCode是不變的,那麼請這麼做吧。因為擷取對象的時候要用到equals()和hashCode()方法,那麼鍵對象正确的重寫這兩個方法是非常重要的。如果兩個不相等的對象傳回不同的hashcode的話,那麼碰撞的幾率就會小些,這樣就能提高HashMap的性能

參考 https://tech.meituan.com/java-hashmap.html

   http://blog.csdn.net/fjse51/article/details/53811465