天天看點

JDK1.8 ConcurrentHashMap源碼分析

文章目錄

  • ​​為什麼要使用ConcurrentHashMap?​​
  • ​​線程不安全的HashMap​​
  • ​​效率低下的HashTable​​
  • ​​ConcurrentHashMap簡介​​
  • ​​ConcurrentHashMap資料結構​​
  • ​​類的繼承關系​​
  • ​​類的内部類​​
  • ​​重要的屬性​​
  • ​​類的構造函數​​
  • ​​ConcurrentHashMap()型構造函數​​
  • ​​ConcurrentHashMap(int)型構造函數​​
  • ​​ConcurrentHashMap(Map<? extends K, ? extends V>)型構造函數​​
  • ​​ConcurrentHashMap(int, float)型構造函數​​
  • ​​ConcurrentHashMap(int, float, int)型構造函數​​
  • ​​重要的内部類​​
  • ​​Node​​
  • ​​TreeNode​​
  • ​​TreeBin​​
  • ​​ForwardingNode​​
  • ​​Unsafe與CAS​​
  • ​​unsafe靜态塊​​
  • ​​三個核心方法​​
  • ​​初始化方法initTable​​
  • ​​擴容方法 transfer​​
  • ​​Put方法​​
  • ​​helpTransfer方法​​
  • ​​initTable函數源碼​​
  • ​​tabAt函數源碼如下​​
  • ​​casTabAt函數源碼​​
  • ​​treeifyBin方法​​
  • ​​get方法​​
  • ​​Size相關的方法​​
  • ​​輔助定義​​
  • ​​mappingCount與Size方法​​
  • ​​addCount方法​​

為什麼要使用ConcurrentHashMap?

線程不安全的HashMap

我們才學習HashMap的時候,就知道HashMap是線程不安全的,但是不知道HashMap由于多線程會導緻什麼問題。下面,我們來看一段代碼:

public class Demo {
    public static void main(String[] args) {
        final Map<String, String> map = new HashMap<>(2);
        Thread t = new Thread(new Runnable() {
            @Override
            public void run() {
                for(int i = 0; i < 100000; i++){
                    new Thread(new Runnable() {
                        @Override
                        public void run() {
                            map.put(UUID.randomUUID().toString(), "");

                        }
                    }).start();
                }
            }
        });
        t.start();
        try {
            t.join();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}      

HashMap在并發執行put操作是會引起死循環,是因為多線程會導緻HashMap的Entry連結清單形成資料結構,一旦形成環形資料結構,Entry的next節點永遠不為空,就會産生死循環擷取Entry。

效率低下的HashTable

HashTable使用synchronized關鍵字來保證線程安全,但線上程競争激烈的情況下HashTable的效率非常低下。因為當一個線程通路HashTable的同步方法,其他線程也通路HashTable的同步方法,會進入阻塞或者輪詢狀态。如果線程1在使用put進行元素添加,線程2不但不能使用put方法添加元素也不能使用get方法來擷取元素,是以競争越激烈效率越低。

ConcurrentHashMap簡介

ConcurrentHashMap是conccurrent家族中的一個類,由于它可以高效地支援并發操作,以及被廣泛使用,經典的開源架構spring的底層資料結構就是使用ConcurrentHashMap實作的。與同是線程安全的老大哥HashTable相比,它已經更勝一籌,是以它的鎖更加細化,而不是像HashTable一樣為幾乎每個方法都添加了synchronized鎖,這樣的鎖無疑會影響到性能。

本文的分析的源碼是JDK8的版本,與JDK6的版本有很大的差異。實作線程安全的思想也已經完全變了,它摒棄了Segment(鎖段)的概念,而是啟用了一種全新的方式實作,利用CAS算法。它沿用了與它同時期的HashMap版本的思想,底層依然由“數組”+連結清單+紅黑樹的方式思想,但是為了做到并發,又增加了很多輔助的類,例如TreeBin,Traverser等對象内部類。

ConcurrentHashMap資料結構

ConcurrentHashMap的資料結構(數組+連結清單+紅黑樹),桶中的結構可能是連結清單,也可能是紅黑樹,紅黑樹是為了提高查找效率。

JDK1.8 ConcurrentHashMap源碼分析

類的繼承關系

public class ConcurrentHashMap<K,V> extends AbstractMap<K,V>
    implements ConcurrentMap<K,V>, Serializable {}      

ConcurrentHashMap繼承了AbstractMap抽象類,該抽象類定義了一些基本操作,同時,也實作了ConcurrentMap接口,ConcurrentMap接口也定義了一系列操作,實作了Serializable接口表示ConcurrentHashMap可以被序列化

類的内部類

ConcurrentHashMap包含了很多内部類,其中主要的内部類架構圖如下圖所示

 

JDK1.8 ConcurrentHashMap源碼分析

 

JDK1.8 ConcurrentHashMap源碼分析

 可以看到,ConcurrentHashMap的内部類非常的龐大,第二個圖是在JDK1.8下增加的類,下面對其中主要的内部類進行分析和講解。

  1. Node類

    Node類主要用于存儲具體鍵值對,其子類有ForwardingNode、ReservationNode、TreeNode和TreeBin四個子類。四個子類具體的代碼在之後的具體例子中進行分析講解。

  2. Traverser類

    Traverser類主要用于周遊操作,其子類有BaseIterator、KeySpliterator、ValueSpliterator、EntrySpliterator四個類,BaseIterator用于周遊操作。KeySplitertor、ValueSpliterator、EntrySpliterator則用于鍵、值、鍵值對的劃分。

  3. CollectionView類

    CollectionView抽象類主要定義了視圖操作,其子類KeySetView、ValueSetView、EntrySetView分别表示鍵視圖、值視圖、鍵值對視圖。對視圖均可以進行操作。

  4. Segment類

    Segment類在JDK1.8中與之前的版本的JDK作用存在很大的差别,JDK1.8下,其在普通的ConcurrentHashMap操作中已經沒有失效,其在序列化與反序列化的時候會發揮作用。

  5. CounterCell

    CounterCell類主要用于對baseCount的計數。

重要的屬性

首先來看幾個重要的屬性,與HashMap相同的就不再介紹了,這裡重點解釋一下sizeCtl這個屬性。可以說它是ConcurrentHashMap中出鏡率很高的一個屬性,因為它是一個控制辨別符,在不同的地方有不同用途,而且它的取值不同,也代表不同的含義。

  1. 負數代表正在進行初始化或擴容操作
  2. -1代表正在初始化
  3. -N 表示有N-1個線程正在進行擴容操作
  4. 正數或0代表hash表還沒有被初始化,這個數值表示初始化或下一次進行擴容的大小,這一點類似于擴容門檻值的概念。還後面可以看到,它的值始終是目前ConcurrentHashMap容量的0.75倍,這與loadfactor是對應的
public class ConcurrentHashMap<K,V> extends AbstractMap<K,V>
    implements ConcurrentMap<K,V>, Serializable {
    private static final long serialVersionUID = 7249069246763182397L;
    // 表的最大容量
    private static final int MAXIMUM_CAPACITY = 1 << 30;
    // 預設表的大小
    private static final int DEFAULT_CAPACITY = 16;
    // 最大數組大小
    static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
    // 預設并發數
    private static final int DEFAULT_CONCURRENCY_LEVEL = 16;
    // 裝載因子
    private static final float LOAD_FACTOR = 0.75f;
    // 轉化為紅黑樹的門檻值
    static final int TREEIFY_THRESHOLD = 8;
    // 由紅黑樹轉化為連結清單的門檻值
    static final int UNTREEIFY_THRESHOLD = 6;
    // 轉化為紅黑樹的表的最小容量
    static final int MIN_TREEIFY_CAPACITY = 64;
    // 每次進行轉移的最小值
    private static final int MIN_TRANSFER_STRIDE = 16;
    // 生成sizeCtl所使用的bit位數
    private static int RESIZE_STAMP_BITS = 16;
    // 進行擴容所允許的最大線程數
    private static final int MAX_RESIZERS = (1 << (32 - RESIZE_STAMP_BITS)) - 1;
    // 記錄sizeCtl中的大小所需要進行的偏移位數
    private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;    
    // 一系列的辨別
    static final int MOVED     = -1;// hash值是-1,表示這是一個forwardNode節點  
    static final int TREEBIN   = -2; // hash值是-2  表示這時一個TreeBin節點  
    static final int RESERVED  = -3; // hash for transient reservations
    static final int HASH_BITS = 0x7fffffff; // usable bits of normal node hash
    // 
    /** Number of CPUS, to place bounds on some sizings */
    // 擷取可用的CPU個數
    static final int NCPU = Runtime.getRuntime().availableProcessors();
    // 
    /** For serialization compatibility. */
    // 進行序列化的屬性
    private static final ObjectStreamField[] serialPersistentFields = {
        new ObjectStreamField("segments", Segment[].class),
        new ObjectStreamField("segmentMask", Integer.TYPE),
        new ObjectStreamField("segmentShift", Integer.TYPE)
    };
    
  /** 
   * 盛裝Node元素的數組 它的大小是2的整數次幂 
   * Size is always a power of two. Accessed directly by iterators. 
   */  
  
    transient volatile Node<K,V>[] table;
    // 下一個表
    private transient volatile Node<K,V>[] nextTable;
    //
    /**
     * Base counter value, used mainly when there is no contention,
     * but also as a fallback during table initialization
     * races. Updated via CAS.
     */
    // 基本計數
    private transient volatile long baseCount;
    //
   /** 
     * Table initialization and resizing control.  When negative, the 
     * table is being initialized or resized: -1 for initialization, 
     * else -(1 + the number of active resizing threads).  Otherwise, 
     * when table is null, holds the initial table size to use upon 
     * creation, or 0 for default. After initialization, holds the 
     * next element count value upon which to resize the table. 
       hash表初始化或擴容時的一個控制位辨別量。 
       負數代表正在進行初始化或擴容操作 
       -1代表正在初始化 
       -N 表示有N-1個線程正在進行擴容操作 
       正數或0代表hash表還沒有被初始化,這個數值表示初始化或下一次進行擴容的大小 
     */ 
    private transient volatile int sizeCtl;
    
    /**
     * The next table index (plus one) to split while resizing.
     */
    // 擴容下另一個表的索引
    private transient volatile int transferIndex;

    /**
     * Spinlock (locked via CAS) used when resizing and/or creating CounterCells.
     */
    // 旋轉鎖
    private transient volatile int cellsBusy;

    /**
     * Table of counter cells. When non-null, size is a power of 2.
     */
    // counterCell表
    private transient volatile CounterCell[] counterCells;

    // views
    // 視圖
    private transient KeySetView<K,V> keySet;
    private transient ValuesView<K,V> values;
    private transient EntrySetView<K,V> entrySet;
    
    // Unsafe mechanics
    private static final sun.misc.Unsafe U;
    private static final long SIZECTL;
    private static final long TRANSFERINDEX;
    private static final long BASECOUNT;
    private static final long CELLSBUSY;
    private static final long CELLVALUE;
    private static final long ABASE;
    private static final int ASHIFT;

    static {
        try {
            U = sun.misc.Unsafe.getUnsafe();
            Class<?> k = ConcurrentHashMap.class;
            SIZECTL = U.objectFieldOffset
                (k.getDeclaredField("sizeCtl"));
            TRANSFERINDEX = U.objectFieldOffset
                (k.getDeclaredField("transferIndex"));
            BASECOUNT = U.objectFieldOffset
                (k.getDeclaredField("baseCount"));
            CELLSBUSY = U.objectFieldOffset
                (k.getDeclaredField("cellsBusy"));
            Class<?> ck = CounterCell.class;
            CELLVALUE = U.objectFieldOffset
                (ck.getDeclaredField("value"));
            Class<?> ak = Node[].class;
            ABASE = U.arrayBaseOffset(ak);
            int scale = U.arrayIndexScale(ak);
            if ((scale & (scale - 1)) != 0)
                throw new Error("data type scale not a power of two");
            ASHIFT = 31 - Integer.numberOfLeadingZeros(scale);
        } catch (Exception e) {
            throw new Error(e);
        }
    }
}      

類的構造函數

ConcurrentHashMap()型構造函數

public ConcurrentHashMap() {
    }      

該構造函數用于建立一個帶有預設初始容量 (16)、加載因子 (0.75) 和 concurrencyLevel (16) 的新的空映射。

ConcurrentHashMap(int)型構造函數

public ConcurrentHashMap(int initialCapacity) {
        if (initialCapacity < 0) // 初始容量小于0,抛出異常
            throw new IllegalArgumentException();
        int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
                   MAXIMUM_CAPACITY :
                   tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1)); // 找到最接近該容量的2的幂次方數
        // 初始化
        this.sizeCtl = cap;
    }      

該構造函數用于建立一個帶有指定初始容量、預設加載因子 (0.75) 和 concurrencyLevel (16) 的新的空映射

ConcurrentHashMap(Map<? extends K, ? extends V>)型構造函數

public ConcurrentHashMap(Map<? extends K, ? extends V> m) {
        this.sizeCtl = DEFAULT_CAPACITY;
        // 将集合m的元素全部放入
        putAll(m);
    }      

該構造函數用于構造一個與給定映射具有相同映射關系的新映射

ConcurrentHashMap(int, float)型構造函數

public ConcurrentHashMap(int initialCapacity, float loadFactor) {
       this(initialCapacity, loadFactor, 1);
   }      

該構造函數用于建立一個帶有指定初始容量、加載因子和預設 concurrencyLevel (1) 的新的空映射

ConcurrentHashMap(int, float, int)型構造函數

public ConcurrentHashMap(int initialCapacity,
                             float loadFactor, int concurrencyLevel) {
        if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0) // 合法性判斷
            throw new IllegalArgumentException();
        if (initialCapacity < concurrencyLevel)   // Use at least as many bins
            initialCapacity = concurrencyLevel;   // as estimated threads
        long size = (long)(1.0 + (long)initialCapacity / loadFactor);
        int cap = (size >= (long)MAXIMUM_CAPACITY) ?
            MAXIMUM_CAPACITY : tableSizeFor((int)size);
        this.sizeCtl = cap;
    }      

說明:該構造函數用于建立一個帶有指定初始容量、加載因子和并發級别的新的空映射。

對于構造函數而言,會根據輸入的initialCapacity的大小來确定一個最小的且大于等于initialCapacity大小的2的n次幂,如initialCapacity為15,則sizeCtl為16,若initialCapacity為16,則sizeCtl為16。若initialCapacity大小超過了允許的最大值,則sizeCtl為最大值。值得注意的是,構造函數中的concurrencyLevel參數已經在JDK1.8中的意義發生了很大的變化,其并不代表所允許的并發數,其隻是用來确定sizeCtl大小,在JDK1.8中的并發控制都是針對具體的桶而言,即有多少個桶就可以允許多少個并發數。

重要的内部類

Node

Node是最核心的内部類,它包裝了key-value鍵值對,所有插入ConcurrentHashMap的資料都包裝在這裡面。它與HashMap中的定義很相似,但是但是有一些差别它對value和next屬性設定了volatile同步鎖,它不允許調用setValue方法直接改變Node的value域,它增加了find方法輔助map.get()方法。

static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        volatile V val;//帶有同步鎖的value
        volatile Node<K,V> next;//帶有同步鎖的next指針
 
        Node(int hash, K key, V val, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.val = val;
            this.next = next;
        }
 
        public final K getKey()       { return key; }
        public final V getValue()     { return val; }
        public final int hashCode()   { return key.hashCode() ^ val.hashCode(); }
        public final String toString(){ return key + "=" + val; }
        //不允許直接改變value的值
        public final V setValue(V value) {
            throw new UnsupportedOperationException();
        }
 
        public final boolean equals(Object o) {
            Object k, v, u; Map.Entry<?,?> e;
            return ((o instanceof Map.Entry) &&
                    (k = (e = (Map.Entry<?,?>)o).getKey()) != null &&
                    (v = e.getValue()) != null &&
                    (k == key || k.equals(key)) &&
                    (v == (u = val) || v.equals(u)));
        }
 
        /**
         * Virtualized support for map.get(); overridden in subclasses.
         */
        Node<K,V> find(int h, Object k) {
            Node<K,V> e = this;
            if (k != null) {
                do {
                    K ek;
                    if (e.hash == h &&
                        ((ek = e.key) == k || (ek != null && k.equals(ek))))
                        return e;
                } while ((e = e.next) != null);
            }
            return null;
        }
    }      

這個Node内部類與HashMap中定義的Node類很相似,但是有一些差别

它對value和next屬性設定了volatile同步鎖

它不允許調用setValue方法直接改變Node的value域

它增加了find方法輔助map.get()方法

TreeNode

樹節點類,另外一個核心的資料結構。當連結清單長度過長的時候,會轉換為TreeNode。但是與HashMap不相同的是,它并不是直接轉換為紅黑樹,而是把這些結點包裝成TreeNode放在TreeBin對象中,由TreeBin完成對紅黑樹的包裝。而且TreeNode在ConcurrentHashMap內建自Node類,而并非HashMap中的內建自LinkedHashMap.Entry<K,V>類,也就是說TreeNode帶有next指針,這樣做的目的是友善基于TreeBin的通路

TreeBin

這個類并不負責包裝使用者的key、value資訊,而是包裝的很多TreeNode節點。它代替了TreeNode的根節點,也就是說在實際的ConcurrentHashMap“數組”中,存放的是TreeBin對象,而不是TreeNode對象,這是與HashMap的差別。另外這個類還帶有了讀寫鎖。

這裡僅貼出它的構造方法。可以看到在構造TreeBin節點時,僅僅指定了它的hash值為TREEBIN常量,這也就是個辨別為。同時也看到我們熟悉的紅黑樹構造方法

/**
    * Creates bin with initial set of nodes headed by b.
    */
   TreeBin(TreeNode<K,V> b) {
       super(TREEBIN, null, null, null);
       this.first = b;
       TreeNode<K,V> r = null;
       for (TreeNode<K,V> x = b, next; x != null; x = next) {
           next = (TreeNode<K,V>)x.next;
           x.left = x.right = null;
           if (r == null) {
               x.parent = null;
               x.red = false;
               r = x;
           }
           else {
               K k = x.key;
               int h = x.hash;
               Class<?> kc = null;
               for (TreeNode<K,V> p = r;;) {
                   int dir, ph;
                   K pk = p.key;
                   if ((ph = p.hash) > h)
                       dir = -1;
                   else if (ph < h)
                       dir = 1;
                   else if ((kc == null &&
                             (kc = comparableClassFor(k)) == null) ||
                            (dir = compareComparables(kc, k, pk)) == 0)
                       dir = tieBreakOrder(k, pk);
                       TreeNode<K,V> xp = p;
                   if ((p = (dir <= 0) ? p.left : p.right) == null) {
                       x.parent = xp;
                       if (dir <= 0)
                           xp.left = x;
                       else
                           xp.right = x;
                       r = balanceInsertion(r, x);
                       break;
                   }
               }
           }
       }
       this.root = r;
       assert checkInvariants(root);
   }      

ForwardingNode

一個用于連接配接兩個table的節點類。它包含一個nextTable指針,用于指向下一張表。而且這個節點的key value next指針全部為null,它的hash值為-1. 這裡面定義的find的方法是從nextTable裡進行查詢節點,而不是以自身為頭節點進行查找

/**
 * A node inserted at head of bins during transfer operations.
 */
static final class ForwardingNode<K,V> extends Node<K,V> {
    final Node<K,V>[] nextTable;
    ForwardingNode(Node<K,V>[] tab) {
        super(MOVED, null, null, null);
        this.nextTable = tab;
    }

    Node<K,V> find(int h, Object k) {
        // loop to avoid arbitrarily deep recursion on forwarding nodes
        outer: for (Node<K,V>[] tab = nextTable;;) {
            Node<K,V> e; int n;
            if (k == null || tab == null || (n = tab.length) == 0 ||
                (e = tabAt(tab, (n - 1) & h)) == null)
                return null;
            for (;;) {
                int eh; K ek;
                if ((eh = e.hash) == h &&
                    ((ek = e.key) == k || (ek != null && k.equals(ek))))
                    return e;
                if (eh < 0) {
                    if (e instanceof ForwardingNode) {
                        tab = ((ForwardingNode<K,V>)e).nextTable;
                        continue outer;
                    }
                    else
                        return e.find(h, k);
                }
                if ((e = e.next) == null)
                    return null;
            }
        }
    }
}      

Unsafe與CAS

在ConcurrentHashMap中,随處可以看到U, 大量使用了U.compareAndSwapXXX的方法,這個方法是利用一個CAS算法實作無鎖化的修改值的操作,他可以大大降低鎖代理的性能消耗。這個算法的基本思想就是不斷地去比較目前記憶體中的變量值與你指定的一個變量值是否相等,如果相等,則接受你指定的修改的值,否則拒絕你的操作。因為目前線程中的值已經不是最新的值,你的修改很可能會覆寫掉其他線程修改的結果。這一點與樂觀鎖,SVN的思想是比較類似的。

unsafe靜态塊

unsafe代碼塊控制了一些屬性的修改工作,比如最常用的SIZECTL 。 在這一版本的concurrentHashMap中,大量應用來的CAS方法進行變量、屬性的修改工作。 利用CAS進行無鎖操作,可以大大提高性能

private static final sun.misc.Unsafe U;
    private static final long SIZECTL;
    private static final long TRANSFERINDEX;
    private static final long BASECOUNT;
    private static final long CELLSBUSY;
    private static final long CELLVALUE;
    private static final long ABASE;
    private static final int ASHIFT;
 
    static {
        try {
            U = sun.misc.Unsafe.getUnsafe();
            Class<?> k = ConcurrentHashMap.class;
            SIZECTL = U.objectFieldOffset
                (k.getDeclaredField("sizeCtl"));
            TRANSFERINDEX = U.objectFieldOffset
                (k.getDeclaredField("transferIndex"));
            BASECOUNT = U.objectFieldOffset
                (k.getDeclaredField("baseCount"));
            CELLSBUSY = U.objectFieldOffset
                (k.getDeclaredField("cellsBusy"));
            Class<?> ck = CounterCell.class;
            CELLVALUE = U.objectFieldOffset
                (ck.getDeclaredField("value"));
            Class<?> ak = Node[].class;
            ABASE = U.arrayBaseOffset(ak);
            int scale = U.arrayIndexScale(ak);
            if ((scale & (scale - 1)) != 0)
                throw new Error("data type scale not a power of two");
            ASHIFT = 31 - Integer.numberOfLeadingZeros(scale);
        } catch (Exception e) {
            throw new Error(e);
        }
    }      

三個核心方法

ConcurrentHashMap定義了三個原子操作,用于對指定位置的節點進行操作。正是這些原子操作保證了ConcurrentHashMap的線程安全。

@SuppressWarnings("unchecked")
    //獲得在i位置上的Node節點
    static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
        return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
    }
        //利用CAS算法設定i位置上的Node節點。之是以能實作并發是因為他指定了原來這個節點的值是多少
        //在CAS算法中,會比較記憶體中的值與你指定的這個值是否相等,如果相等才接受你的修改,否則拒絕你的修改
        //是以目前線程中的值并不是最新的值,這種修改可能會覆寫掉其他線程的修改結果  有點類似于SVN
    static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
                                        Node<K,V> c, Node<K,V> v) {
        return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
    }
        //利用volatile方法設定節點位置的值
    static final <K,V> void setTabAt(Node<K,V>[] tab, int i, Node<K,V> v) {
        U.putObjectVolatile(tab, ((long)i << ASHIFT) + ABASE, v);
    }      

初始化方法initTable

對于ConcurrentHashMap來說,調用它的構造方法僅僅是設定了一些參數而已。而整個table的初始化是在向ConcurrentHashMap中插入元素的時候發生的。如調用put、computeIfAbsent、compute、merge等方法的時候,調用時機是檢查table==null。

初始化方法主要應用了關鍵屬性sizeCtl 如果這個值〈0,表示其他線程正在進行初始化,就放棄這個操作。在這也可以看出ConcurrentHashMap的初始化隻能由一個線程完成。如果獲得了初始化權限,就用CAS方法将sizeCtl置為-1,防止其他線程進入。初始化數組後,将sizeCtl的值改為0.75*n

/**
 * Initializes table, using the size recorded in sizeCtl.
 */
private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    while ((tab = table) == null || tab.length == 0) {
            //sizeCtl表示有其他線程正在進行初始化操作,把線程挂起。對于table的初始化工作,隻能有一個線程在進行。
        if ((sc = sizeCtl) < 0)
            Thread.yield(); // lost initialization race; just spin
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {//利用CAS方法把sizectl的值置為-1 表示本線程正在進行初始化
            try {
                if ((tab = table) == null || tab.length == 0) {
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    @SuppressWarnings("unchecked")
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    table = tab = nt;
                    sc = n - (n >>> 2);//相當于0.75*n 設定一個擴容的門檻值
                }
            } finally {
                sizeCtl = sc;
            }
            break;
        }
    }
    return tab;
}      

擴容方法 transfer

當ConcurrentHashMap容量不足的時候,需要對table進行擴容。這個方法的基本思想跟HashMap是很像的,但是由于它是支援并發擴容的,是以要複雜的多。原因是它支援多線程進行擴容操作,而并沒有加鎖。我想這樣做的目的不僅僅是為了滿足concurrent的要求,而是希望利用并發處理去減少擴容帶來的時間影響。因為在擴容的時候,總是會涉及到從一個“數組”到另一個“數組”拷貝的操作,如果這個操作能夠并發進行,那真真是極好的了。

整個擴容操作分為兩個部分

  1. 第一部分是建構一個nextTable,它的容量是原來的兩倍,這個操作是單線程完成的。這個單線程的保證是通過RESIZE_STAMP_SHIFT這個常量經過一次運算來保證的,這個地方在後面會有提到;
  2. 第二個部分就是将原來table中的元素複制到nextTable中,這裡允許多線程進行操作。

先來看一下單線程是如何完成的:

  1. 它的大體思想就是周遊、複制的過程。首先根據運算得到需要周遊的次數i,然後利用tabAt方法獲得i位置的元素:
  2. 如果這個位置為空,就在原table中的i位置放入forwardNode節點,這個也是觸發并發擴容的關鍵點;
  3. 如果這個位置是Node節點(fh>=0),如果它是一個連結清單的頭節點,就構造一個反序連結清單,把他們分别放在nextTable的i和i+n的位置上
  4. 如果這個位置是TreeBin節點(fh<0),也做一個反序處理,并且判斷是否需要untreefi,把處理的結果分别放在nextTable的i和i+n的位置上

周遊過所有的節點以後就完成了複制工作,這時讓nextTable作為新的table,并且更新sizeCtl為新容量的0.75倍 ,完成擴容。

再看一下多線程是如何完成的:

  1. 在代碼的69行有一個判斷,如果周遊到的節點是forward節點,就向後繼續周遊,再加上給節點上鎖的機制,就完成了多線程的控制。多線程周遊節點,處理了一個節點,就把對應點的值set為forward,另一個線程看到forward,就向後周遊。這樣交叉就完成了複制工作。而且還很好的解決了線程安全的問題。 這個方法的設計實在是讓我膜拜
/**
   * 一個過渡的table表  隻有在擴容的時候才會使用
   */
  private transient volatile Node<K,V>[] nextTable;

/**
   * Moves and/or copies the nodes in each bin to new table. See
   * above for explanation.
   */
  private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
      int n = tab.length, stride;
      if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
          stride = MIN_TRANSFER_STRIDE; // subdivide range
      if (nextTab == null) {            // initiating
          try {
              @SuppressWarnings("unchecked")
              Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];//構造一個nextTable對象 它的容量是原來的兩倍
              nextTab = nt;
          } catch (Throwable ex) {      // try to cope with OOME
              sizeCtl = Integer.MAX_VALUE;
              return;
          }
          nextTable = nextTab;
          transferIndex = n;
      }
      int nextn = nextTab.length;
      ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);//構造一個連節點指針 用于标志位
      boolean advance = true;//并發擴容的關鍵屬性 如果等于true 說明這個節點已經處理過
      boolean finishing = false; // to ensure sweep before committing nextTab
      for (int i = 0, bound = 0;;) {
          Node<K,V> f; int fh;
          //這個while循環體的作用就是在控制i--  通過i--可以依次周遊原hash表中的節點
          while (advance) {
              int nextIndex, nextBound;
              if (--i >= bound || finishing)
                  advance = false;
              else if ((nextIndex = transferIndex) <= 0) {
                  i = -1;
                  advance = false;
              }
              else if (U.compareAndSwapInt
                       (this, TRANSFERINDEX, nextIndex,
                        nextBound = (nextIndex > stride ?
                                     nextIndex - stride : 0))) {
                  bound = nextBound;
                  i = nextIndex - 1;
                  advance = false;
              }
          }
          if (i < 0 || i >= n || i + n >= nextn) {
              int sc;
              if (finishing) {
                //如果所有的節點都已經完成複制工作  就把nextTable指派給table 清空臨時對象nextTable
                  nextTable = null;
                  table = nextTab;
                  sizeCtl = (n << 1) - (n >>> 1);//擴容門檻值設定為原來容量的1.5倍  依然相當于現在容量的0.75倍
                  return;
              }
              //利用CAS方法更新這個擴容門檻值,在這裡面sizectl值減一,說明新加入一個線程參與到擴容操作
              if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
                  if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
                      return;
                  finishing = advance = true;
                  i = n; // recheck before commit
              }
          }
          //如果周遊到的節點為空 則放入ForwardingNode指針
          else if ((f = tabAt(tab, i)) == null)
              advance = casTabAt(tab, i, null, fwd);
          //如果周遊到ForwardingNode節點  說明這個點已經被處理過了 直接跳過  這裡是控制并發擴容的核心
          else if ((fh = f.hash) == MOVED)
              advance = true; // already processed
          else {
              //節點上鎖
              synchronized (f) {
                  if (tabAt(tab, i) == f) {
                      Node<K,V> ln, hn;
                      //如果fh>=0 證明這是一個Node節點
                      if (fh >= 0) {
                          int runBit = fh & n;
                          //以下的部分在完成的工作是構造兩個連結清單  一個是原連結清單  另一個是原連結清單的反序排列
                          Node<K,V> lastRun = f;
                          for (Node<K,V> p = f.next; p != null; p = p.next) {
                              int b = p.hash & n;
                              if (b != runBit) {
                                  runBit = b;
                                  lastRun = p;
                              }
                          }
                          if (runBit == 0) {
                              ln = lastRun;
                              hn = null;
                          }
                          else {
                              hn = lastRun;
                              ln = null;
                          }
                          for (Node<K,V> p = f; p != lastRun; p = p.next) {
                              int ph = p.hash; K pk = p.key; V pv = p.val;
                              if ((ph & n) == 0)
                                  ln = new Node<K,V>(ph, pk, pv, ln);
                              else
                                  hn = new Node<K,V>(ph, pk, pv, hn);
                          }
                          //在nextTable的i位置上插入一個連結清單
                          setTabAt(nextTab, i, ln);
                          //在nextTable的i+n的位置上插入另一個連結清單
                          setTabAt(nextTab, i + n, hn);
                          //在table的i位置上插入forwardNode節點  表示已經處理過該節點
                          setTabAt(tab, i, fwd);
                          //設定advance為true 傳回到上面的while循環中 就可以執行i--操作
                          advance = true;
                      }
                      //對TreeBin對象進行處理  與上面的過程類似
                      else if (f instanceof TreeBin) {
                          TreeBin<K,V> t = (TreeBin<K,V>)f;
                          TreeNode<K,V> lo = null, loTail = null;
                          TreeNode<K,V> hi = null, hiTail = null;
                          int lc = 0, hc = 0;
                          //構造正序和反序兩個連結清單
                          for (Node<K,V> e = t.first; e != null; e = e.next) {
                              int h = e.hash;
                              TreeNode<K,V> p = new TreeNode<K,V>
                                  (h, e.key, e.val, null, null);
                              if ((h & n) == 0) {
                                  if ((p.prev = loTail) == null)
                                      lo = p;
                                  else
                                      loTail.next = p;
                                  loTail = p;
                                  ++lc;
                              }
                              else {
                                  if ((p.prev = hiTail) == null)
                                      hi = p;
                                  else
                                      hiTail.next = p;
                                  hiTail = p;
                                  ++hc;
                              }
                          }
                          //如果擴容後已經不再需要tree的結構 反向轉換為連結清單結構
                          ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                              (hc != 0) ? new TreeBin<K,V>(lo) : t;
                          hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                              (lc != 0) ? new TreeBin<K,V>(hi) : t;
                           //在nextTable的i位置上插入一個連結清單    
                          setTabAt(nextTab, i, ln);
                          //在nextTable的i+n的位置上插入另一個連結清單
                          setTabAt(nextTab, i + n, hn);
                           //在table的i位置上插入forwardNode節點  表示已經處理過該節點
                          setTabAt(tab, i, fwd);
                          //設定advance為true 傳回到上面的while循環中 就可以執行i--操作
                          advance = true;
                      }
                  }
              }
          }
      }
  }      

Put方法

前面的所有的介紹其實都為這個方法做鋪墊。ConcurrentHashMap最常用的就是put和get兩個方法。現在來介紹put方法,這個put方法依然沿用HashMap的put方法的思想,根據hash值計算這個新插入的點在table中的位置i,如果i位置是空的,直接放進去,否則進行判斷,如果i位置是樹節點,按照樹的方式插入新的節點,否則把i插入到連結清單的末尾。ConcurrentHashMap中依然沿用這個思想,有一個最重要的不同點就是ConcurrentHashMap不允許key或value為null值。另外由于涉及到多線程,put方法就要複雜一點。在多線程中可能有以下兩個情況

  1. 如果一個或多個線程正在對ConcurrentHashMap進行擴容操作,目前線程也要進入擴容的操作中。這個擴容的操作之是以能被檢測到,是因為transfer方法中在空結點上插入forward節點,如果檢測到需要插入的位置被forward節點占有,就幫助進行擴容;
  2. 如果檢測到要插入的節點是非空且不是forward節點,就對這個節點加鎖,這樣就保證了線程安全。盡管這個有一些影響效率,但是還是會比hashTable的synchronized要好得多。

整體流程就是首先定義不允許key或value為null的情況放入 對于每一個放入的值,首先利用spread方法對key的hashcode進行一次hash計算,由此來确定這個值在table中的位置。

如果這個位置是空的,那麼直接放入,而且不需要加鎖操作。

如果這個位置存在結點,說明發生了hash碰撞,首先判斷這個節點的類型。如果是連結清單節點(fh>0),則得到的結點就是hash值相同的節點組成的連結清單的頭節點。需要依次向後周遊确定這個新加入的值所在位置。如果遇到hash值與key值都與新加入節點是一緻的情況,則隻需要更新value值即可。否則依次向後周遊,直到連結清單尾插入這個結點。 如果加入這個節點以後連結清單長度大于8,就把這個連結清單轉換成紅黑樹。如果這個節點的類型已經是樹節點的話,直接調用樹節點的插入方法進行插入新的值

public V put(K key, V value) {
    return putVal(key, value, false);
}

/** Implementation for put and putIfAbsent */
final V putVal(K key, V value, boolean onlyIfAbsent) {
        //不允許 key或value為null
    if (key == null || value == null) throw new NullPointerException();
    //計算hash值
    int hash = spread(key.hashCode());
    int binCount = 0;
    //死循環 何時插入成功 何時跳出
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh;
        //如果table為空的話,初始化table
        if (tab == null || (n = tab.length) == 0)
            tab = initTable();
        //根據hash值計算出在table裡面的位置 
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            //如果這個位置沒有值 ,直接放進去,不需要加鎖
            if (casTabAt(tab, i, null,
                         new Node<K,V>(hash, key, value, null)))
                break;                   // no lock when adding to empty bin
        }
        //當遇到表連接配接點時,需要進行整合表的操作
        else if ((fh = f.hash) == MOVED)
            tab = helpTransfer(tab, f);
        else {
            V oldVal = null;
            //結點上鎖  這裡的結點可以了解為hash值相同組成的連結清單的頭結點
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    //fh〉0 說明這個節點是一個連結清單的節點 不是樹的節點
                    if (fh >= 0) {
                        binCount = 1;
                        //在這裡周遊連結清單所有的結點
                        for (Node<K,V> e = f;; ++binCount) {
                            K ek;
                            //如果hash值和key值相同  則修改對應結點的value值
                            if (e.hash == hash &&
                                ((ek = e.key) == key ||
                                 (ek != null && key.equals(ek)))) {
                                oldVal = e.val;
                                if (!onlyIfAbsent)
                                    e.val = value;
                                break;
                            }
                            Node<K,V> pred = e;
                            //如果周遊到了最後一個結點,那麼就證明新的節點需要插入 就把它插入在連結清單尾部
                            if ((e = e.next) == null) {
                                pred.next = new Node<K,V>(hash, key,
                                                          value, null);
                                break;
                            }
                        }
                    }
                    //如果這個節點是樹節點,就按照樹的方式插入值
                    else if (f instanceof TreeBin) {
                        Node<K,V> p;
                        binCount = 2;
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                       value)) != null) {
                            oldVal = p.val;
                            if (!onlyIfAbsent)
                                p.val = value;
                        }
                    }
                }
            }
            if (binCount != 0) {
                //如果連結清單長度已經達到臨界值8 就需要把連結清單轉換為樹結構
                if (binCount >= TREEIFY_THRESHOLD)
                    treeifyBin(tab, i);
                if (oldVal != null)
                    return oldVal;
                break;
            }
        }
    }
    //将目前ConcurrentHashMap的元素數量+1
    addCount(1L, binCount);
    return null;
}      

helpTransfer方法

這是一個協助擴容的方法。這個方法被調用的時候,目前ConcurrentHashMap一定已經有了nextTable對象,首先拿到這個nextTable對象,調用transfer方法。回看上面的transfer方法可以看到,當本線程進入擴容方法的時候會直接進入複制階段

/**
  * Helps transfer if a resize is in progress.
  */
 final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
     Node<K,V>[] nextTab; int sc;
     if (tab != null && (f instanceof ForwardingNode) &&
         (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
         int rs = resizeStamp(tab.length);//計算一個操作校驗碼
         while (nextTab == nextTable && table == tab &&
                (sc = sizeCtl) < 0) {
             if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                 sc == rs + MAX_RESIZERS || transferIndex <= 0)
                 break;
             if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
                 transfer(tab, nextTab);
                 break;
             }
         }
         return nextTab;
     }
     return table;
 }      

說明:put函數底層調用了putVal進行資料的插入,對于putVal函數的流程大體如下。

① 判斷存儲的key、value是否為空,若為空,則抛出異常,否則,進入步驟②

② 計算key的hash值,随後進入無限循環,該無限循環可以確定成功插入資料,若table表為空或者長度為0,則初始化table表,否則,進入步驟③

③ 根據key的hash值取出table表中的結點元素,若取出的結點為空(該桶為空),則使用CAS将key、value、hash值生成的結點放入桶中。否則,進入步驟④

④ 若該結點的的hash值為MOVED,則對該桶中的結點進行轉移,否則,進入步驟⑤

⑤ 對桶中的第一個結點(即table表中的結點)進行加鎖,對該桶進行周遊,桶中的結點的hash值與key值與給定的hash值和key值相等,則根據辨別選擇是否進行更新操作(用給定的value值替換該結點的value值),若周遊完桶仍沒有找到hash值與key值和指定的hash值與key值相等的結點,則直接新生一個結點并指派為之前最後一個結點的下一個結點。進入步驟⑥

⑥ 若binCount值達到紅黑樹轉化的門檻值,則将桶中的結構轉化為紅黑樹存儲,最後,增加binCount的值。

在putVal函數中會涉及到如下幾個函數:initTable、tabAt、casTabAt、helpTransfer、putTreeVal、treeifyBin、addCount函數。下面對其中涉及到的函數進行分析。

initTable函數源碼

private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    while ((tab = table) == null || tab.length == 0) { // 無限循環
        if ((sc = sizeCtl) < 0) // sizeCtl小于0,則進行線程讓步等待
            Thread.yield(); // lost initialization race; just spin
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) { // 比較sizeCtl的值與sc是否相等,相等則用-1替換
            try {
                if ((tab = table) == null || tab.length == 0) { // table表為空或者大小為0
                    // sc的值是否大于0,若是,則n為sc,否則,n為預設初始容量
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    @SuppressWarnings("unchecked")
                    // 新生結點數組
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    // 指派給table
                    table = tab = nt;
                    // sc為n * 3/4
                    sc = n - (n >>> 2);
                }
            } finally {
                // 設定sizeCtl的值
                sizeCtl = sc;
            }
            break;
        }
    }
    // 傳回table表
    return tab;
}      

說明:對于table的大小,會根據sizeCtl的值進行設定,如果沒有設定szieCtl的值,那麼預設生成的table大小為16,否則,會根據sizeCtl的大小設定table大小。

tabAt函數源碼如下

static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
    return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}      

此函數傳回table數組中下标為i的結點,可以看到是通過Unsafe對象通過反射擷取的,getObjectVolatile的第二項參數為下标為i的偏移位址

casTabAt函數源碼

static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i,
                                    Node<K,V> c, Node<K,V> v) {
    return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
}      

此函數用于比較table數組下标為i的結點是否為c,若為c,則用v交換操作。否則,不進行交換操作

treeifyBin方法

這個方法用于将過長的連結清單轉換為TreeBin對象。但是他并不是直接轉換,而是進行一次容量判斷,如果容量沒有達到轉換的要求,直接進行擴容操作并傳回;如果滿足條件才連結清單的結構抓換為TreeBin ,這與HashMap不同的是,它并沒有把TreeNode直接放入紅黑樹,而是利用了TreeBin這個小容器來封裝所有的TreeNode

private final void treeifyBin(Node<K,V>[] tab, int index) {
    Node<K,V> b; int n, sc;
    if (tab != null) {
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)//如果table.length<64 就擴大一倍 傳回
            tryPresize(n << 1);
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
            synchronized (b) {
                if (tabAt(tab, index) == b) {
                    TreeNode<K,V> hd = null, tl = null;
                    //構造了一個TreeBin對象 把所有Node節點包裝成TreeNode放進去
                    for (Node<K,V> e = b; e != null; e = e.next) {
                        TreeNode<K,V> p =
                            new TreeNode<K,V>(e.hash, e.key, e.val,
                                              null, null);//這裡隻是利用了TreeNode封裝 而沒有利用TreeNode的next域和parent域
                        if ((p.prev = tl) == null)
                            hd = p;
                        else
                            tl.next = p;
                        tl = p;
                    }
                    //在原來index的位置 用TreeBin替換掉原來的Node對象
                    setTabAt(tab, index, new TreeBin<K,V>(hd));
                }
            }
        }
    }
}      

get方法

get方法比較簡單,給定一個key來确定value的時候,必須滿足兩個條件 key相同 hash值相同,對于節點可能在連結清單或樹上的情況,需要分别去查找

public V get(Object key) {
    Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
    //計算hash值
    int h = spread(key.hashCode());
    //根據hash值确定節點位置
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (e = tabAt(tab, (n - 1) & h)) != null) {
        //如果搜尋到的節點key與傳入的key相同且不為null,直接傳回這個節點  
        if ((eh = e.hash) == h) {
            if ((ek = e.key) == key || (ek != null && key.equals(ek)))
                return e.val;
        }
        //如果eh<0 說明這個節點在樹上 直接尋找
        else if (eh < 0)
            return (p = e.find(h, key)) != null ? p.val : null;
         //否則周遊連結清單 找到對應的值并傳回
        while ((e = e.next) != null) {
            if (e.hash == h &&
                ((ek = e.key) == key || (ek != null && key.equals(ek))))
                return e.val;
        }
    }
    return null;
}      

Size相關的方法

對于ConcurrentHashMap來說,這個table裡到底裝了多少東西其實是個不确定的數量,因為不可能在調用size()方法的時候像GC的“stop the world”一樣讓其他線程都停下來讓你去統計,是以隻能說這個數量是個估計值。對于這個估計值,ConcurrentHashMap也是大費周章才計算出來的

輔助定義

為了統計元素個數,ConcurrentHashMap定義了一些變量和一個内部類

/**
 * A padded cell for distributing counts.  Adapted from LongAdder
 * and Striped64.  See their internal docs for explanation.
 */
@sun.misc.Contended static final class CounterCell {
    volatile long value;
    CounterCell(long x) { value = x; }
}

/******************************************/  

/**
 * 實際上儲存的是hashmap中的元素個數  利用CAS鎖進行更新
 但它并不用傳回目前hashmap的元素個數 
 
 */
private transient volatile long baseCount;
/**
 * Spinlock (locked via CAS) used when resizing and/or creating CounterCells.
 */
private transient volatile int cellsBusy;

/**
 * Table of counter cells. When non-null, size is a power of 2.
 */
private transient volatile CounterCell[] counterCells;      

mappingCount與Size方法

public int size() {
    long n = sumCount();
    return ((n < 0L) ? 0 :
            (n > (long)Integer.MAX_VALUE) ? Integer.MAX_VALUE :
            (int)n);
}
 /**
 * Returns the number of mappings. This method should be used
 * instead of {@link #size} because a ConcurrentHashMap may
 * contain more mappings than can be represented as an int. The
 * value returned is an estimate; the actual count may differ if
 * there are concurrent insertions or removals.
 *
 * @return the number of mappings
 * @since 1.8
 */
public long mappingCount() {
    long n = sumCount();
    return (n < 0L) ? 0L : n; // ignore transient negative values
}

 final long sumCount() {
    CounterCell[] as = counterCells; CounterCell a;
    long sum = baseCount;
    if (as != null) {
        for (int i = 0; i < as.length; ++i) {
            if ((a = as[i]) != null)
                sum += a.value;//所有counter的值求和
        }
    }
    return sum;
}      

addCount方法

private final void addCount(long x, int check) {
    CounterCell[] as; long b, s;
    //利用CAS方法更新baseCount的值 
    if ((as = counterCells) != null ||
        !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
        CounterCell a; long v; int m;
        boolean uncontended = true;
        if (as == null || (m = as.length - 1) < 0 ||
            (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
            !(uncontended =
              U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
            fullAddCount(x, uncontended);
            return;
        }
        if (check <= 1)
            return;
        s = sumCount();
    }
    //如果check值大于等于0 則需要檢驗是否需要進行擴容操作
    if (check >= 0) {
        Node<K,V>[] tab, nt; int n, sc;
        while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
               (n = tab.length) < MAXIMUM_CAPACITY) {
            int rs = resizeStamp(n);
            //
            if (sc < 0) {
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                    transferIndex <= 0)
                    break;
                 //如果已經有其他線程在執行擴容操作
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    transfer(tab, nt);
            }
            //目前線程是唯一的或是第一個發起擴容的線程  此時nextTable=null
            else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                         (rs << RESIZE_STAMP_SHIFT) + 2))
                transfer(tab, null);
            s = sumCount();
        }
    }
}      

繼續閱讀