ConcurrentHashMap原理

2021-03-29  本文已影响0人  爱健身的兔子

1 ConcurrentHashMap介绍

ConcurrentHashMap是HashMap的多线程版本,结构和HashMap一样是数组+链表+红黑树的结构,也有链表长度到达8时树化,变成6时退化。数组长度也是2的幂次方。

当未ConcurrentHashMap指定初始容量是2的幂次方时,ConcurrentHashMap算出的初始容量是大于给定初始容量的最小2的幂次方的数据,但是HashMap将是给定的这个2的幂次方的数据。

ConcurrentHashMap不支持key和value为null,HashMap支持。这是应为在多线程环境下无法保障数据获取返回null是ConcurrentHashMap是否存在这个key。

ConcurrentHashMap对key取Hash值时,会保障Hash值是一个正整数。因为ConcurrentHashMap引入了-1,-2等负数Hash值做特殊用途。HashMap则没有。

2 重要字段

    private transient volatile int sizeCtl;
    //扩容时线程每次领取完还剩余的任务
    private transient volatile int transferIndex;
    //标志数组的下标正在扩容
    static final int MOVED     = -1;
    //标志数组的下标存放的是树结构
    static final int TREEBIN   = -2;

sizeCtl这个字段很重要,意义也很多:

sizeCtl为0,代表数组未初始化, 且数组的初始容量为16

sizeCtl为正数,如果数组未初始化,那么其记录的是数组的初始容量,如果数组已经初始化,那么其记录的是数组的扩容阈值,用(n - (n >>> 2))计算阀值。

sizeCtl为-1,表示数组正在进行初始化

sizeCtl小于0,并且不是-1,表示数组正在扩容, -(1+n),表示此时有n个线程正在共同完成数组的扩容操作

ConcurrentHashMap扩容时,是对数组分段进行数据迁移的,每个分段的开始现在位置由transferIndex指定,每次迁移最少迁移16个捅位。当一个桶的数据被迁移完成时,这个桶上会创建一个ForwardingNode节点,它的哈希值是MOVED(-1)。当线程put时,发现当前桶位是ForwardingNode节点,意味着数组正在扩容,于是就去协助扩容,等扩容完成时在put数据。

final class ForwardingNode<K,V> extends Node<K,V> {
    final Node<K,V>[] nextTable;
    ForwardingNode(Node<K,V>[] tab) {
        super(MOVED, null, null, null);
        this.nextTable = tab;
    }
}

ConcurrentHashMap在树化时除了保存红黑树和双向链表的特征外,还引入了TreeBin节点,当树化完成时,在桶上的节点是TreeBin,Hash值为TREEBIN(-2 )。

3 put方法

ConcurrentHashMap的添加元素通过Cas+自旋+Synchronize来保障线程安全。

public V put(K key, V value) {
    return putVal(key, value, false);
}
final V putVal(K key, V value, boolean onlyIfAbsent) {
    //如果有空值或者空键,直接抛异常
    if (key == null || value == null) throw new NullPointerException();
    //基于key计算hash值,并进行一定的扰动
    int hash = spread(key.hashCode());
    //记录某个桶上元素的个数,如果超过8个,会转成红黑树
    int binCount = 0;
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh;
        //如果数组还未初始化,先对数组进行初始化
        if (tab == null || (n = tab.length) == 0)
            tab = initTable();
        //如果hash计算得到的桶位置没有元素,利用cas将元素添加
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            //cas+自旋(和外侧的for构成自旋循环),保证元素添加安全
            if (casTabAt(tab, i, null,
                         new Node<K,V>(hash, key, value, null)))
                break;                   // no lock when adding to empty bin
        }
        //如果hash计算得到的桶位置元素的hash值为MOVED,证明正在扩容,那么协助扩容
        else if ((fh = f.hash) == MOVED)
            tab = helpTransfer(tab, f);
        else {
            //hash计算的桶位置元素不为空,且当前没有处于扩容操作,进行元素添加
            V oldVal = null;
            //对当前桶进行加锁,保证线程安全,执行元素添加操作
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    //普通链表节点
                    if (fh >= 0) {
                        binCount = 1;
                        for (Node<K,V> e = f;; ++binCount) {
                            K ek;
                            if (e.hash == hash &&
                                ((ek = e.key) == key ||
                                 (ek != null && key.equals(ek)))) {
                                oldVal = e.val;
                                if (!onlyIfAbsent)
                                    e.val = value;
                                break;
                            }
                            Node<K,V> pred = e;
                            if ((e = e.next) == null) {
                                pred.next = new Node<K,V>(hash, key,
                                                          value, null);
                                break;
                            }
                        }
                    }
                    //树节点,将元素添加到红黑树中
                    else if (f instanceof TreeBin) {
                        Node<K,V> p;
                        binCount = 2;
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                       value)) != null) {
                            oldVal = p.val;
                            if (!onlyIfAbsent)
                                p.val = value;
                        }
                    }
                }
            }
            //binCount初始是0,0代表插入的下标没值,插入的是头节点
            //binCount!= 0,1代表插入的是链表,2代表是树
            //所以先判断binCount!= 0,再去判断是否达到转树的阈值
            if (binCount != 0) {
                //链表长度大于/等于8,将链表转成红黑树
                if (binCount >= TREEIFY_THRESHOLD)
                    treeifyBin(tab, i);
                //如果是重复键,直接将旧值返回
                if (oldVal != null)
                    return oldVal;
                break;
            }
        }
    }
    //添加的是新元素,维护集合长度,并判断是否要进行扩容操作
    addCount(1L, binCount);
    return null;
}

流程说明:

  1. 通过for自旋把添加操作包起来

  2. 先判断数组是否初始化,没有就进行初始化,然后自旋进行新一轮的判断

  3. 如果数组初始化了,判断Hash桶是否有为null,为null就cas+自旋添加。

  4. 如果Hash桶存在数据,判断时候数组当前节点适合被迁移,如果是就协助迁移。

  5. 如果当前节点没有迁移,就对当前节点加锁在然后进行数据添加操作。添加和HashMap差不多,这里就不在赘述。

  6. 最后为添加集合数量。

注意:

在添加数据时,先加锁,在判断节点是否变化,用了双重检查(常规操作),防止数据迁移对添加数据的影响。

4 initTable方法

数组的初始化在第一次put操作时执行。为了防止多线程的初始问题。 initTable方法也采用Cas+自旋的方式。

private final Node<K,V>[] initTable() {
    Node<K,V>[] tab; int sc;
    //cas+自旋,保证线程安全,对数组进行初始化操作
    while ((tab = table) == null || tab.length == 0) {
        //如果sizeCtl的值(-1)小于0,说明此时正在初始化, 让出cpu
        if ((sc = sizeCtl) < 0)
            Thread.yield(); // lost initialization race; just spin
        //cas修改sizeCtl的值为-1,修改成功,进行数组初始化,失败,继续自旋
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
            try {
                if ((tab = table) == null || tab.length == 0) {
                    //sizeCtl为0,取默认长度16,否则去sizeCtl的值
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    @SuppressWarnings("unchecked")
                    //基于初始长度,构建数组对象
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    table = tab = nt;
                    //计算扩容阈值,并赋值给sc
                    sc = n - (n >>> 2);
                }
            } finally {
                //将扩容阈值,赋值给sizeCtl
                sizeCtl = sc;
            }
            break;
        }
    }
    return tab;
}

注意:

流程很简单,就是判断sizeCtl的值,如果是-1表示有线程在进行初始化,则让出CPU,如果是0表示创建ConcurrentHashMap时没有指定初始容量,如果大于0表示指定了初始容量,通过Cas将sizeCtl的值变成-1,然后初始化数组,再将sizeCtl赋值为新数组的阀值。

这里Cas成功后又进行了检查,个人认为是为了防止Cas的ABA问题。

如果创建ConcurrentHashMap时指定初始容量1,那么sizeCtl就是2。如果两个线程A,B同时初始化,当A线程Cas成功,初始化数组,然后赋值sizeCtl时,它的值还是2,当B线程这个时候Cas就会执行成功,如果不检查,那么就会重现创建新的数组,可能导致数据丢失。

5 addCount方法

addCount方法是累加ConcurrentHashMap中元素个数的方法。由于是多线程添加元素,所有ConcurrentHashMap采用一个baseCount字段和一个CounterCell[]数组来累加元素个数。

 //0:表示counterCells无人使用
 //因为counterCells是一个数组,线程不安全的
 //所以在操作counterCells之前,都要用CAS将cellsBusy改成1,表示有人在使用该数组
 private transient volatile int cellsBusy;
 private transient volatile long baseCount;
 //数组大小也是2的N次方,也会扩容,但是数组最大长度不当前CPU的核数。
 private transient volatile CounterCell[] counterCells;
private final void addCount(long x, int check) {
    CounterCell[] as; long b, s;
    //当CounterCell数组不为空,则优先利用数组中的CounterCell记录数量
    //或者当baseCount的累加操作失败,会利用数组中的CounterCell记录数量
    if ((as = counterCells) != null ||
        !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
        CounterCell a; long v; int m;
        //标识是否有多线程竞争,true为没有,false为有
        boolean uncontended = true;
        //当as数组为空
        //或者当as长度为0
        //或者当前线程对应的as数组桶位的元素为空
        //或者当前线程对应的as数组桶位不为空,但是累加失败
        if (as == null || (m = as.length - 1) < 0 ||
            (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
            !(uncontended =
              U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
            //以上任何一种情况成立,都会进入该方法,传入的uncontended是false
            fullAddCount(x, uncontended);
            return;
        }
        //到这表示CAS把值记到counterCells肯定成功了,因为上面的是 ||,CAS是最后一个判断条件
        //check == 0:表示插入的下标是空的,此时是头节点,此坑位还有不少直接return
        //check == 1:表示插入的是链表的第2个,此坑位还有不少,就不考虑扩容,直接return
        //check == -1:表示的是删除,直接return
        //这里跟hashMap有点不一样,没有直接判断大于多少就扩容
        if (check <= 1)
            return;
        //计算元素个数
        s = sumCount();
    }
    if (check >= 0) {
        Node<K,V>[] tab, nt; int n, sc;
        //当元素个数达到扩容阈值
        //并且数组不为空
        //并且数组长度小于限定的最大值
        //满足以上所有条件,执行扩容
        while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
               (n = tab.length) < MAXIMUM_CAPACITY) {
            //这个是一个很大的正数
            int rs = resizeStamp(n);
            //sc小于0,说明有线程正在扩容,那么会协助扩容
            if (sc < 0) {
                //扩容结束或者扩容线程数达到最大值或者扩容后的数组为null或者没有更多的桶位需要转移,结束操作
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                    transferIndex <= 0)
                    break;
                //扩容线程加1,成功后,进行协助扩容操作
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                    //协助扩容,newTable不为null
                    transfer(tab, nt);
            }
            //没有其他线程在进行扩容,达到扩容阈值后,给sizeCtl赋了一个很大的负数
            //rs << RESIZE_STAMP_SHIFT)是一个很大的负数
            else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                         (rs << RESIZE_STAMP_SHIFT) + 2))
                //扩容,newTable为null
                transfer(tab, null);
            s = sumCount();
        }
    }
}

流程说明:

addCount主要包括两部,一是累加计数,二是扩容。这里有一个需要注意的,当累计计数成功,没有进入fullAddCount方法并且check<=1时,不进行扩容,这个和HashMap判断是否需要扩容不一样。这里并不是强制元素个数达到阀值就扩容。

第二步扩容中有一个非常难理解的方法resizeStamp

private static int RESIZE_STAMP_BITS = 16;

private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;

static final int resizeStamp(int n) {
        return Integer.numberOfLeadingZeros(n) | (1 << (RESIZE_STAMP_BITS - 1));
}

Integer.numberOfLeadingZeros(n)用于计算n转换成二进制后前面有几个0。就是计算当前数组容量n前面有几个0。由于n必定是2的幂次方,所以不同的容量n前面0的个数必然不同,这样可以保证是在原容量为n的情况下进行扩容。

(1 << (RESIZE_STAMP_BITS - 1)即是1<<15,表示为二进制即是高16位为0,第16位为1的数

0000 0000 0000 0000 1000 0000 0000 0000

所以resizeStamp(n)的返回值为:高16位置0,第16位为1,低15位存放当前容量n,用于表示是对n的扩容。

当第一个线程进行扩容时会把sizeCtl设置成(rs << RESIZE_STAMP_SHIFT) + 2,其中第一位为1,表示是一个负数,后面的15位表示当前数组的长度,低16为用于存放当前扩容的线程数。第一个线程低15位用2表示。

6 fullAddCount方法

private final void fullAddCount(long x, boolean wasUncontended) {
    int h;
    //获取当前线程的hash值,如果为0表示没有初始化
    if ((h = ThreadLocalRandom.getProbe()) == 0) {
        ThreadLocalRandom.localInit();      // force initialization
        h = ThreadLocalRandom.getProbe();
        //把标志位置为true,表示没有CAS,false表示CAS
        wasUncontended = true;
    }
    //标识是否有冲突,如果最后一个桶不是null,那么为true
    boolean collide = false;                // True if last slot nonempty
    for (;;) {
        CounterCell[] as; CounterCell a; int n; long v;
        //数组不为空,优先对数组中CouterCell的value累加
        if ((as = counterCells) != null && (n = as.length) > 0) {
            //线程对应的桶位为null
            if ((a = as[(n - 1) & h]) == null) {
                if (cellsBusy == 0) {            // Try to attach new Cell
                    //创建CounterCell对象
                    CounterCell r = new CounterCell(x); // Optimistic create
                    //利用CAS修改cellBusy状态为1,成功则将刚才创建的CounterCell对象放入数组中
                    if (cellsBusy == 0 &&
                        U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                        boolean created = false;
                        try {               // Recheck under lock
                            CounterCell[] rs; int m, j;
                            //桶位为空, 将CounterCell对象放入数组
                            if ((rs = counterCells) != null &&
                                (m = rs.length) > 0 &&
                                rs[j = (m - 1) & h] == null) {
                                rs[j] = r;
                                //表示放入成功
                                created = true;
                            }
                        } finally {
                            cellsBusy = 0;
                        }
                        if (created) //成功退出循环
                            break;
                        //桶位已经被别的线程放置了已给CounterCell对象,继续循环
                        continue;           // Slot is now non-empty
                    }
                }
                collide = false;
            }
            //桶位不为空,重新计算线程hash值,然后继续循环
            else if (!wasUncontended)       // CAS already known to fail
                wasUncontended = true;      // Continue after rehash
            //重新计算了hash值后,对应的桶位依然不为空,对value累加
            //成功则结束循环
            //失败则继续下面判断
            else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
                break;
            //数组被别的线程改变了,或者数组长度超过了可用cpu大小,重新计算线程hash值,否则继续下一个判断
            else if (counterCells != as || n >= NCPU)
                collide = false;            // At max size or stale
            //当没有冲突,修改为有冲突,并重新计算线程hash,继续循环
            else if (!collide)
                collide = true;
            //如果CounterCell的数组长度没有超过cpu核数,对数组进行两倍扩容
            //并继续循环
            else if (cellsBusy == 0 &&
                     U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                try {
                    if (counterCells == as) {// Expand table unless stale
                        CounterCell[] rs = new CounterCell[n << 1];
                        for (int i = 0; i < n; ++i)
                            rs[i] = as[i];
                        counterCells = rs;
                    }
                } finally {
                    cellsBusy = 0;
                }
                collide = false;
                continue;                   // Retry with expanded table
            }
            h = ThreadLocalRandom.advanceProbe(h);
        }
        //CounterCell数组为空,并且没有线程在创建数组,修改标记,并创建数组
        else if (cellsBusy == 0 && counterCells == as &&
                 U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
            boolean init = false;
            try {                           // Initialize table
                if (counterCells == as) {
                    CounterCell[] rs = new CounterCell[2];
                    rs[h & 1] = new CounterCell(x);
                    counterCells = rs;
                    init = true;
                }
            } finally {
                cellsBusy = 0;
            }
            if (init)
                break;
        }
        //数组为空,并且有别的线程在创建数组,那么尝试对baseCount做累加,成功就退出循环,失败就继续循环
        else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
            break;                          // Fall back on using base
    }
}

流程说明:

该方法也是通过自旋+cas的方式进行累加,代码比较长,但是逻辑还是挺清晰的:主要的步骤包括:

  1. 当CounterCell数组不为空,优先对CounterCell数组中的CounterCell的value累加

  2. 当CounterCell数组为空,会去创建CounterCell数组,默认长度为2,并对数组中的CounterCell的value累加

  3. 当数组为空,并且此时有别的线程正在创建数组,那么尝试对baseCount做累加,成功即返回,否则自旋

通过cellsBusy来对CounterCell[]的创建,扩容,累加,进行控制,0表示可以进行,1表示不可以进行。

7 transfer方法

transfer方法用于对数组进行扩容。总结一下扩容条件:

private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
    int n = tab.length, stride;
    //用CPU数量去判断,每个CPU扩容的数组长度,最少16
    //为什么是(n >>> 3) / NCPU,而不是直接n / NCPU呢?
    //我觉得大概是因为(个人想法):
    //1:真正扩容的线程一次不需要领取太多任务,给扩容线程一个机会,让别的线程有机会帮助扩容
    //2:尽可能的利用每个CPU,这样put场景多的情况,就会分散压力到每个CPU
    if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
        stride = MIN_TRANSFER_STRIDE; // subdivide range
    //如果是扩容线程,此时新数组为null
    if (nextTab == null) {            // initiating
        try {
            @SuppressWarnings("unchecked")
            //两倍扩容创建新数组
            Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
            nextTab = nt;
        } catch (Throwable ex) {      // try to cope with OOME
            //上面的代码会报错,原因只有2个
            //1:n << 1结果过大,但是 < Integer.MAX_VALUE,导致OOM,堆空间溢出
            //2:n << 1结果超出Integer.MAX_VALUE,导致结果是负数
            sizeCtl = Integer.MAX_VALUE;
            return;
        }
        nextTable = nextTab;
        //记录线程开始迁移的桶位,从后往前迁移
        transferIndex = n;
    }
    //记录新数组的末尾
    int nextn = nextTab.length;
    //已经迁移的桶位,会用这个节点占位(这个节点的hash值为-1--MOVED)
    ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
    //当前线程是否需要继续寻找下一个可处理的节点
    boolean advance = true;
    boolean finishing = false; //所有桶是否都已迁移完成。
    //i:是遍历的下标
    //bound:表示当前线程需要处理的区间的最小下标
    for (int i = 0, bound = 0;;) {
        Node<K,V> f; int fh;
        //此循环的作用是确定当前线程要迁移的桶的范围或通过更新i的值确定当前范围内下一个要处理的节点。
        while (advance) {
            int nextIndex, nextBound;
            //i记录当前正在迁移桶位的索引值
            //bound记录下一次任务迁移的开始桶位
            //--i >= bound 成立表示当前线程分配的迁移任务还没有完成
            if (--i >= bound || finishing)
                advance = false;
            //没有元素需要迁移 -- 后续会去将扩容线程数减1,并判断扩容是否完成
            else if ((nextIndex = transferIndex) <= 0) {
                i = -1;
                advance = false;
            }
            //计算下一次任务迁移的开始桶位,并将这个值赋值给transferIndex
            else if (U.compareAndSwapInt
                     (this, TRANSFERINDEX, nextIndex,
                      nextBound = (nextIndex > stride ?
                                   nextIndex - stride : 0))) {
                bound = nextBound;
                i = nextIndex - 1;
                advance = false;
            }
        }
        //如果没有更多的需要迁移的桶位,就进入该if
        if (i < 0 || i >= n || i + n >= nextn) {
            int sc;
            //扩容结束后,保存新数组,并重新计算扩容阈值,赋值给sizeCtl
            if (finishing) {
                nextTable = null;
                table = nextTab;
                sizeCtl = (n << 1) - (n >>> 1);
                return;
            }
           //当前线程执行完扩容扩容任务线程数减1
            if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
                //判断当前所有扩容任务线程是否都执行完成
                if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
                    return;
                //所有扩容线程都执行完,标识结束
                finishing = advance = true;
                i = n; // recheck before commit
            }
        }
        //当前迁移的桶位没有元素,直接在该位置添加一个fwd节点
        else if ((f = tabAt(tab, i)) == null)
            advance = casTabAt(tab, i, null, fwd);
        //当前节点已经被迁移
        else if ((fh = f.hash) == MOVED)
            advance = true; // already processed
        else {
            //当前节点需要迁移,加锁迁移,保证多线程安全
            //此处和tHashMap相同,不再赘述
            synchronized (f) {
                if (tabAt(tab, i) == f) {
                    Node<K,V> ln, hn;
                    if (fh >= 0) {
                        int runBit = fh & n;
                        Node<K,V> lastRun = f;
                        for (Node<K,V> p = f.next; p != null; p = p.next) {
                            int b = p.hash & n;
                            if (b != runBit) {
                                runBit = b;
                                lastRun = p;
                            }
                        }
                        if (runBit == 0) {
                            ln = lastRun;
                            hn = null;
                        }
                        else {
                            hn = lastRun;
                            ln = null;
                        }
                        for (Node<K,V> p = f; p != lastRun; p = p.next) {
                            int ph = p.hash; K pk = p.key; V pv = p.val;
                            if ((ph & n) == 0)
                                ln = new Node<K,V>(ph, pk, pv, ln);
                            else
                                hn = new Node<K,V>(ph, pk, pv, hn);
                        }
                        setTabAt(nextTab, i, ln);
                        setTabAt(nextTab, i + n, hn);
                        setTabAt(tab, i, fwd);
                        advance = true;
                    }
                    else if (f instanceof TreeBin) {
                        TreeBin<K,V> t = (TreeBin<K,V>)f;
                        TreeNode<K,V> lo = null, loTail = null;
                        TreeNode<K,V> hi = null, hiTail = null;
                        int lc = 0, hc = 0;
                        for (Node<K,V> e = t.first; e != null; e = e.next) {
                            int h = e.hash;
                            TreeNode<K,V> p = new TreeNode<K,V>
                                (h, e.key, e.val, null, null);
                            if ((h & n) == 0) {
                                if ((p.prev = loTail) == null)
                                    lo = p;
                                else
                                    loTail.next = p;
                                loTail = p;
                                ++lc;
                            }
                            else {
                                if ((p.prev = hiTail) == null)
                                    hi = p;
                                else
                                    hiTail.next = p;
                                hiTail = p;
                                ++hc;
                            }
                        }
                        ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                            (hc != 0) ? new TreeBin<K,V>(lo) : t;
                        hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                            (lc != 0) ? new TreeBin<K,V>(hi) : t;
                        setTabAt(nextTab, i, ln);
                        setTabAt(nextTab, i + n, hn);
                        setTabAt(tab, i, fwd);
                        advance = true;
                    }
                }
            }
        }
    }
}

流程说明:

  1. 判断当前线程是否是扩容,nextTab=null为扩容,nextTab!=null表示协助扩容

  2. 如果扩容,则创建新数组

  3. 获取每次扩容的区间stride,最小扩容区间为16

  4. 然后是一个for循环扩容,从后往前扩容,每次扩容的初始值是i=nextIndex - 1,终止值是bound(nextIndex-stride)。

  5. while(advence)循环主要是更新i的值,并确定下一个区间

  6. 之后判断finishing的值确定数据迁移是否完成。

  7. 真正的数据迁移在最后,过程和HashMap相似。

7.1 协助扩容

如果当前更新的节点是ForwardingNode,则协助扩容

final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
    Node<K,V>[] nextTab; int sc;
    if (tab != null && (f instanceof ForwardingNode) &&
        (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
        int rs = resizeStamp(tab.length);
        while (nextTab == nextTable && table == tab &&
               (sc = sizeCtl) < 0) {
            if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                sc == rs + MAX_RESIZERS || transferIndex <= 0)
                break;
            if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
                //扩容,传递一个不是null的nextTab
                transfer(tab, nextTab);
                break;
            }
        }
        return nextTab;
    }
    return table;
}
7.2 单线程扩容
7.3 多线程扩容

8 JDK1.7与JDK1.8的区别

项目 JDK1.7 JDK1.8
数据结构
同步机制 分段锁,每个segment继承ReentrantLock CAS + synchronized保证并发更新
存储结构 数组+链表 数组+链表+红黑树
键值对 HashEntry Node
put操作 多个线程同时竞争获取同一个segment锁,获取成功的线程更新map;失败的线程尝试多次获取锁仍未成功,则挂起线程,等待释放锁 访问相应的bucket时,使用sychronizeded关键字,防止多个线程同时操作同一个bucket,如果该节点的hash不小于0,则遍历链表更新节点或插入新节点;如果该节点是TreeBin类型的节点,说明是红黑树结构,则通过putTreeVal方法往红黑树中插入节点;更新了节点数量,还要考虑扩容和链表转红黑树
size实现 统计每个Segment对象中的元素个数,然后进行累加,但是这种方式计算出来的结果并不一样的准确的。先采用不加锁的方式,连续计算元素的个数,最多计算3次:如果前后两次计算结果相同,则说明计算出来的元素个数是准确的;如果前后两次计算结果都不同,则给每个Segment进行加锁,再计算一次元素的个数 通过累加baseCount和CounterCell数组中的数量,即可得到元素的总个数

【面试篇】ConcurrentHashMap1.8 扩容细节_Mind_programmonkey的博客-CSDN博客

ConcurrentHashMap底层详解(图解扩容)(JDK1.8)_愿万事胜意-CSDN博客

ConcurrentHashMap源码解析(jdk1.8)_programmer_at的专栏-CSDN博客_concurrenthashmap源码

上一篇下一篇

猜你喜欢

热点阅读