ConcurrentHashMap原理
1 ConcurrentHashMap介绍
ConcurrentHashMap是HashMap的多线程版本,结构和HashMap一样是数组+链表+红黑树的结构,也有链表长度到达8时树化,变成6时退化。数组长度也是2的幂次方。
当未ConcurrentHashMap指定初始容量是2的幂次方时,ConcurrentHashMap算出的初始容量是大于给定初始容量的最小2的幂次方的数据,但是HashMap将是给定的这个2的幂次方的数据。
ConcurrentHashMap不支持key和value为null,HashMap支持。这是应为在多线程环境下无法保障数据获取返回null是ConcurrentHashMap是否存在这个key。
ConcurrentHashMap对key取Hash值时,会保障Hash值是一个正整数。因为ConcurrentHashMap引入了-1,-2等负数Hash值做特殊用途。HashMap则没有。
2 重要字段
private transient volatile int sizeCtl;
//扩容时线程每次领取完还剩余的任务
private transient volatile int transferIndex;
//标志数组的下标正在扩容
static final int MOVED = -1;
//标志数组的下标存放的是树结构
static final int TREEBIN = -2;
sizeCtl这个字段很重要,意义也很多:
sizeCtl
为0,代表数组未初始化, 且数组的初始容量为16
sizeCtl
为正数,如果数组未初始化,那么其记录的是数组的初始容量,如果数组已经初始化,那么其记录的是数组的扩容阈值,用(n - (n >>> 2))计算阀值。
sizeCtl
为-1,表示数组正在进行初始化
sizeCtl
小于0,并且不是-1,表示数组正在扩容, -(1+n),表示此时有n个线程正在共同完成数组的扩容操作
ConcurrentHashMap扩容时,是对数组分段进行数据迁移的,每个分段的开始现在位置由transferIndex
指定,每次迁移最少迁移16个捅位。当一个桶的数据被迁移完成时,这个桶上会创建一个ForwardingNode
节点,它的哈希值是MOVED(-1)。当线程put时,发现当前桶位是ForwardingNode
节点,意味着数组正在扩容,于是就去协助扩容,等扩容完成时在put数据。
final class ForwardingNode<K,V> extends Node<K,V> {
final Node<K,V>[] nextTable;
ForwardingNode(Node<K,V>[] tab) {
super(MOVED, null, null, null);
this.nextTable = tab;
}
}
ConcurrentHashMap在树化时除了保存红黑树和双向链表的特征外,还引入了TreeBin
节点,当树化完成时,在桶上的节点是TreeBin
,Hash值为TREEBIN
(-2 )。
3 put方法
ConcurrentHashMap的添加元素通过Cas+自旋+Synchronize来保障线程安全。
public V put(K key, V value) {
return putVal(key, value, false);
}
final V putVal(K key, V value, boolean onlyIfAbsent) {
//如果有空值或者空键,直接抛异常
if (key == null || value == null) throw new NullPointerException();
//基于key计算hash值,并进行一定的扰动
int hash = spread(key.hashCode());
//记录某个桶上元素的个数,如果超过8个,会转成红黑树
int binCount = 0;
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
//如果数组还未初始化,先对数组进行初始化
if (tab == null || (n = tab.length) == 0)
tab = initTable();
//如果hash计算得到的桶位置没有元素,利用cas将元素添加
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
//cas+自旋(和外侧的for构成自旋循环),保证元素添加安全
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break; // no lock when adding to empty bin
}
//如果hash计算得到的桶位置元素的hash值为MOVED,证明正在扩容,那么协助扩容
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
//hash计算的桶位置元素不为空,且当前没有处于扩容操作,进行元素添加
V oldVal = null;
//对当前桶进行加锁,保证线程安全,执行元素添加操作
synchronized (f) {
if (tabAt(tab, i) == f) {
//普通链表节点
if (fh >= 0) {
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
//树节点,将元素添加到红黑树中
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
//binCount初始是0,0代表插入的下标没值,插入的是头节点
//binCount!= 0,1代表插入的是链表,2代表是树
//所以先判断binCount!= 0,再去判断是否达到转树的阈值
if (binCount != 0) {
//链表长度大于/等于8,将链表转成红黑树
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
//如果是重复键,直接将旧值返回
if (oldVal != null)
return oldVal;
break;
}
}
}
//添加的是新元素,维护集合长度,并判断是否要进行扩容操作
addCount(1L, binCount);
return null;
}
流程说明:
-
通过for自旋把添加操作包起来
-
先判断数组是否初始化,没有就进行初始化,然后自旋进行新一轮的判断
-
如果数组初始化了,判断Hash桶是否有为null,为null就cas+自旋添加。
-
如果Hash桶存在数据,判断时候数组当前节点适合被迁移,如果是就协助迁移。
-
如果当前节点没有迁移,就对当前节点加锁在然后进行数据添加操作。添加和HashMap差不多,这里就不在赘述。
-
最后为添加集合数量。
注意:
在添加数据时,先加锁,在判断节点是否变化,用了双重检查(常规操作),防止数据迁移对添加数据的影响。
4 initTable方法
数组的初始化在第一次put操作时执行。为了防止多线程的初始问题。 initTable方法也采用Cas+自旋的方式。
private final Node<K,V>[] initTable() {
Node<K,V>[] tab; int sc;
//cas+自旋,保证线程安全,对数组进行初始化操作
while ((tab = table) == null || tab.length == 0) {
//如果sizeCtl的值(-1)小于0,说明此时正在初始化, 让出cpu
if ((sc = sizeCtl) < 0)
Thread.yield(); // lost initialization race; just spin
//cas修改sizeCtl的值为-1,修改成功,进行数组初始化,失败,继续自旋
else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
try {
if ((tab = table) == null || tab.length == 0) {
//sizeCtl为0,取默认长度16,否则去sizeCtl的值
int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
@SuppressWarnings("unchecked")
//基于初始长度,构建数组对象
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
table = tab = nt;
//计算扩容阈值,并赋值给sc
sc = n - (n >>> 2);
}
} finally {
//将扩容阈值,赋值给sizeCtl
sizeCtl = sc;
}
break;
}
}
return tab;
}
注意:
流程很简单,就是判断sizeCtl
的值,如果是-1表示有线程在进行初始化,则让出CPU,如果是0表示创建ConcurrentHashMap
时没有指定初始容量,如果大于0表示指定了初始容量,通过Cas将sizeCtl
的值变成-1,然后初始化数组,再将sizeCtl
赋值为新数组的阀值。
这里Cas成功后又进行了检查,个人认为是为了防止Cas的ABA问题。
如果创建ConcurrentHashMap时指定初始容量1,那么sizeCtl就是2。如果两个线程A,B同时初始化,当A线程Cas成功,初始化数组,然后赋值
sizeCtl
时,它的值还是2,当B线程这个时候Cas就会执行成功,如果不检查,那么就会重现创建新的数组,可能导致数据丢失。
5 addCount方法
addCount方法是累加ConcurrentHashMap中元素个数的方法。由于是多线程添加元素,所有ConcurrentHashMap采用一个baseCount
字段和一个CounterCell[]
数组来累加元素个数。
//0:表示counterCells无人使用
//因为counterCells是一个数组,线程不安全的
//所以在操作counterCells之前,都要用CAS将cellsBusy改成1,表示有人在使用该数组
private transient volatile int cellsBusy;
private transient volatile long baseCount;
//数组大小也是2的N次方,也会扩容,但是数组最大长度不当前CPU的核数。
private transient volatile CounterCell[] counterCells;
private final void addCount(long x, int check) {
CounterCell[] as; long b, s;
//当CounterCell数组不为空,则优先利用数组中的CounterCell记录数量
//或者当baseCount的累加操作失败,会利用数组中的CounterCell记录数量
if ((as = counterCells) != null ||
!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
CounterCell a; long v; int m;
//标识是否有多线程竞争,true为没有,false为有
boolean uncontended = true;
//当as数组为空
//或者当as长度为0
//或者当前线程对应的as数组桶位的元素为空
//或者当前线程对应的as数组桶位不为空,但是累加失败
if (as == null || (m = as.length - 1) < 0 ||
(a = as[ThreadLocalRandom.getProbe() & m]) == null ||
!(uncontended =
U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
//以上任何一种情况成立,都会进入该方法,传入的uncontended是false
fullAddCount(x, uncontended);
return;
}
//到这表示CAS把值记到counterCells肯定成功了,因为上面的是 ||,CAS是最后一个判断条件
//check == 0:表示插入的下标是空的,此时是头节点,此坑位还有不少直接return
//check == 1:表示插入的是链表的第2个,此坑位还有不少,就不考虑扩容,直接return
//check == -1:表示的是删除,直接return
//这里跟hashMap有点不一样,没有直接判断大于多少就扩容
if (check <= 1)
return;
//计算元素个数
s = sumCount();
}
if (check >= 0) {
Node<K,V>[] tab, nt; int n, sc;
//当元素个数达到扩容阈值
//并且数组不为空
//并且数组长度小于限定的最大值
//满足以上所有条件,执行扩容
while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
(n = tab.length) < MAXIMUM_CAPACITY) {
//这个是一个很大的正数
int rs = resizeStamp(n);
//sc小于0,说明有线程正在扩容,那么会协助扩容
if (sc < 0) {
//扩容结束或者扩容线程数达到最大值或者扩容后的数组为null或者没有更多的桶位需要转移,结束操作
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
transferIndex <= 0)
break;
//扩容线程加1,成功后,进行协助扩容操作
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
//协助扩容,newTable不为null
transfer(tab, nt);
}
//没有其他线程在进行扩容,达到扩容阈值后,给sizeCtl赋了一个很大的负数
//rs << RESIZE_STAMP_SHIFT)是一个很大的负数
else if (U.compareAndSwapInt(this, SIZECTL, sc,
(rs << RESIZE_STAMP_SHIFT) + 2))
//扩容,newTable为null
transfer(tab, null);
s = sumCount();
}
}
}
流程说明:
addCount主要包括两部,一是累加计数,二是扩容。这里有一个需要注意的,当累计计数成功,没有进入fullAddCount
方法并且check<=1时,不进行扩容,这个和HashMap判断是否需要扩容不一样。这里并不是强制元素个数达到阀值就扩容。
第二步扩容中有一个非常难理解的方法resizeStamp
private static int RESIZE_STAMP_BITS = 16;
private static final int RESIZE_STAMP_SHIFT = 32 - RESIZE_STAMP_BITS;
static final int resizeStamp(int n) {
return Integer.numberOfLeadingZeros(n) | (1 << (RESIZE_STAMP_BITS - 1));
}
Integer.numberOfLeadingZeros(n)用于计算n转换成二进制后前面有几个0。就是计算当前数组容量n前面有几个0。由于n必定是2的幂次方,所以不同的容量n前面0的个数必然不同,这样可以保证是在原容量为n的情况下进行扩容。
(1 << (RESIZE_STAMP_BITS - 1)即是1<<15,表示为二进制即是高16位为0,第16位为1的数
0000 0000 0000 0000 1000 0000 0000 0000
所以resizeStamp(n)的返回值为:高16位置0,第16位为1,低15位存放当前容量n,用于表示是对n的扩容。
当第一个线程进行扩容时会把sizeCtl
设置成(rs << RESIZE_STAMP_SHIFT) + 2,其中第一位为1,表示是一个负数,后面的15位表示当前数组的长度,低16为用于存放当前扩容的线程数。第一个线程低15位用2表示。
6 fullAddCount方法
private final void fullAddCount(long x, boolean wasUncontended) {
int h;
//获取当前线程的hash值,如果为0表示没有初始化
if ((h = ThreadLocalRandom.getProbe()) == 0) {
ThreadLocalRandom.localInit(); // force initialization
h = ThreadLocalRandom.getProbe();
//把标志位置为true,表示没有CAS,false表示CAS
wasUncontended = true;
}
//标识是否有冲突,如果最后一个桶不是null,那么为true
boolean collide = false; // True if last slot nonempty
for (;;) {
CounterCell[] as; CounterCell a; int n; long v;
//数组不为空,优先对数组中CouterCell的value累加
if ((as = counterCells) != null && (n = as.length) > 0) {
//线程对应的桶位为null
if ((a = as[(n - 1) & h]) == null) {
if (cellsBusy == 0) { // Try to attach new Cell
//创建CounterCell对象
CounterCell r = new CounterCell(x); // Optimistic create
//利用CAS修改cellBusy状态为1,成功则将刚才创建的CounterCell对象放入数组中
if (cellsBusy == 0 &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean created = false;
try { // Recheck under lock
CounterCell[] rs; int m, j;
//桶位为空, 将CounterCell对象放入数组
if ((rs = counterCells) != null &&
(m = rs.length) > 0 &&
rs[j = (m - 1) & h] == null) {
rs[j] = r;
//表示放入成功
created = true;
}
} finally {
cellsBusy = 0;
}
if (created) //成功退出循环
break;
//桶位已经被别的线程放置了已给CounterCell对象,继续循环
continue; // Slot is now non-empty
}
}
collide = false;
}
//桶位不为空,重新计算线程hash值,然后继续循环
else if (!wasUncontended) // CAS already known to fail
wasUncontended = true; // Continue after rehash
//重新计算了hash值后,对应的桶位依然不为空,对value累加
//成功则结束循环
//失败则继续下面判断
else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
break;
//数组被别的线程改变了,或者数组长度超过了可用cpu大小,重新计算线程hash值,否则继续下一个判断
else if (counterCells != as || n >= NCPU)
collide = false; // At max size or stale
//当没有冲突,修改为有冲突,并重新计算线程hash,继续循环
else if (!collide)
collide = true;
//如果CounterCell的数组长度没有超过cpu核数,对数组进行两倍扩容
//并继续循环
else if (cellsBusy == 0 &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
try {
if (counterCells == as) {// Expand table unless stale
CounterCell[] rs = new CounterCell[n << 1];
for (int i = 0; i < n; ++i)
rs[i] = as[i];
counterCells = rs;
}
} finally {
cellsBusy = 0;
}
collide = false;
continue; // Retry with expanded table
}
h = ThreadLocalRandom.advanceProbe(h);
}
//CounterCell数组为空,并且没有线程在创建数组,修改标记,并创建数组
else if (cellsBusy == 0 && counterCells == as &&
U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
boolean init = false;
try { // Initialize table
if (counterCells == as) {
CounterCell[] rs = new CounterCell[2];
rs[h & 1] = new CounterCell(x);
counterCells = rs;
init = true;
}
} finally {
cellsBusy = 0;
}
if (init)
break;
}
//数组为空,并且有别的线程在创建数组,那么尝试对baseCount做累加,成功就退出循环,失败就继续循环
else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
break; // Fall back on using base
}
}
流程说明:
该方法也是通过自旋+cas的方式进行累加,代码比较长,但是逻辑还是挺清晰的:主要的步骤包括:
-
当CounterCell数组不为空,优先对CounterCell数组中的CounterCell的value累加
-
当CounterCell数组为空,会去创建CounterCell数组,默认长度为2,并对数组中的CounterCell的value累加
-
当数组为空,并且此时有别的线程正在创建数组,那么尝试对baseCount做累加,成功即返回,否则自旋
通过cellsBusy
来对CounterCell[]
的创建,扩容,累加,进行控制,0表示可以进行,1表示不可以进行。
7 transfer方法
transfer方法用于对数组进行扩容。总结一下扩容条件:
-
元素个数达到扩容阈值。
-
调用 putAll 方法,但目前容量不足以存放所有元素时。
-
某条链表长度达到8,但数组长度却小于64时。
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
int n = tab.length, stride;
//用CPU数量去判断,每个CPU扩容的数组长度,最少16
//为什么是(n >>> 3) / NCPU,而不是直接n / NCPU呢?
//我觉得大概是因为(个人想法):
//1:真正扩容的线程一次不需要领取太多任务,给扩容线程一个机会,让别的线程有机会帮助扩容
//2:尽可能的利用每个CPU,这样put场景多的情况,就会分散压力到每个CPU
if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
stride = MIN_TRANSFER_STRIDE; // subdivide range
//如果是扩容线程,此时新数组为null
if (nextTab == null) { // initiating
try {
@SuppressWarnings("unchecked")
//两倍扩容创建新数组
Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
nextTab = nt;
} catch (Throwable ex) { // try to cope with OOME
//上面的代码会报错,原因只有2个
//1:n << 1结果过大,但是 < Integer.MAX_VALUE,导致OOM,堆空间溢出
//2:n << 1结果超出Integer.MAX_VALUE,导致结果是负数
sizeCtl = Integer.MAX_VALUE;
return;
}
nextTable = nextTab;
//记录线程开始迁移的桶位,从后往前迁移
transferIndex = n;
}
//记录新数组的末尾
int nextn = nextTab.length;
//已经迁移的桶位,会用这个节点占位(这个节点的hash值为-1--MOVED)
ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
//当前线程是否需要继续寻找下一个可处理的节点
boolean advance = true;
boolean finishing = false; //所有桶是否都已迁移完成。
//i:是遍历的下标
//bound:表示当前线程需要处理的区间的最小下标
for (int i = 0, bound = 0;;) {
Node<K,V> f; int fh;
//此循环的作用是确定当前线程要迁移的桶的范围或通过更新i的值确定当前范围内下一个要处理的节点。
while (advance) {
int nextIndex, nextBound;
//i记录当前正在迁移桶位的索引值
//bound记录下一次任务迁移的开始桶位
//--i >= bound 成立表示当前线程分配的迁移任务还没有完成
if (--i >= bound || finishing)
advance = false;
//没有元素需要迁移 -- 后续会去将扩容线程数减1,并判断扩容是否完成
else if ((nextIndex = transferIndex) <= 0) {
i = -1;
advance = false;
}
//计算下一次任务迁移的开始桶位,并将这个值赋值给transferIndex
else if (U.compareAndSwapInt
(this, TRANSFERINDEX, nextIndex,
nextBound = (nextIndex > stride ?
nextIndex - stride : 0))) {
bound = nextBound;
i = nextIndex - 1;
advance = false;
}
}
//如果没有更多的需要迁移的桶位,就进入该if
if (i < 0 || i >= n || i + n >= nextn) {
int sc;
//扩容结束后,保存新数组,并重新计算扩容阈值,赋值给sizeCtl
if (finishing) {
nextTable = null;
table = nextTab;
sizeCtl = (n << 1) - (n >>> 1);
return;
}
//当前线程执行完扩容扩容任务线程数减1
if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
//判断当前所有扩容任务线程是否都执行完成
if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
return;
//所有扩容线程都执行完,标识结束
finishing = advance = true;
i = n; // recheck before commit
}
}
//当前迁移的桶位没有元素,直接在该位置添加一个fwd节点
else if ((f = tabAt(tab, i)) == null)
advance = casTabAt(tab, i, null, fwd);
//当前节点已经被迁移
else if ((fh = f.hash) == MOVED)
advance = true; // already processed
else {
//当前节点需要迁移,加锁迁移,保证多线程安全
//此处和tHashMap相同,不再赘述
synchronized (f) {
if (tabAt(tab, i) == f) {
Node<K,V> ln, hn;
if (fh >= 0) {
int runBit = fh & n;
Node<K,V> lastRun = f;
for (Node<K,V> p = f.next; p != null; p = p.next) {
int b = p.hash & n;
if (b != runBit) {
runBit = b;
lastRun = p;
}
}
if (runBit == 0) {
ln = lastRun;
hn = null;
}
else {
hn = lastRun;
ln = null;
}
for (Node<K,V> p = f; p != lastRun; p = p.next) {
int ph = p.hash; K pk = p.key; V pv = p.val;
if ((ph & n) == 0)
ln = new Node<K,V>(ph, pk, pv, ln);
else
hn = new Node<K,V>(ph, pk, pv, hn);
}
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
else if (f instanceof TreeBin) {
TreeBin<K,V> t = (TreeBin<K,V>)f;
TreeNode<K,V> lo = null, loTail = null;
TreeNode<K,V> hi = null, hiTail = null;
int lc = 0, hc = 0;
for (Node<K,V> e = t.first; e != null; e = e.next) {
int h = e.hash;
TreeNode<K,V> p = new TreeNode<K,V>
(h, e.key, e.val, null, null);
if ((h & n) == 0) {
if ((p.prev = loTail) == null)
lo = p;
else
loTail.next = p;
loTail = p;
++lc;
}
else {
if ((p.prev = hiTail) == null)
hi = p;
else
hiTail.next = p;
hiTail = p;
++hc;
}
}
ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
(hc != 0) ? new TreeBin<K,V>(lo) : t;
hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
(lc != 0) ? new TreeBin<K,V>(hi) : t;
setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);
setTabAt(tab, i, fwd);
advance = true;
}
}
}
}
}
}
流程说明:
-
判断当前线程是否是扩容,nextTab=null为扩容,nextTab!=null表示协助扩容
-
如果扩容,则创建新数组
-
获取每次扩容的区间stride,最小扩容区间为16
-
然后是一个for循环扩容,从后往前扩容,每次扩容的初始值是i=nextIndex - 1,终止值是bound(nextIndex-stride)。
-
while(advence)循环主要是更新i的值,并确定下一个区间
-
之后判断finishing的值确定数据迁移是否完成。
-
真正的数据迁移在最后,过程和HashMap相似。
7.1 协助扩容
如果当前更新的节点是ForwardingNode
,则协助扩容
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
Node<K,V>[] nextTab; int sc;
if (tab != null && (f instanceof ForwardingNode) &&
(nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
int rs = resizeStamp(tab.length);
while (nextTab == nextTable && table == tab &&
(sc = sizeCtl) < 0) {
if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
sc == rs + MAX_RESIZERS || transferIndex <= 0)
break;
if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
//扩容,传递一个不是null的nextTab
transfer(tab, nextTab);
break;
}
}
return nextTab;
}
return table;
}
7.2 单线程扩容
7.3 多线程扩容
8 JDK1.7与JDK1.8的区别
项目 | JDK1.7 | JDK1.8 |
---|---|---|
数据结构 | ||
同步机制 | 分段锁,每个segment继承ReentrantLock | CAS + synchronized保证并发更新 |
存储结构 | 数组+链表 | 数组+链表+红黑树 |
键值对 | HashEntry | Node |
put操作 | 多个线程同时竞争获取同一个segment锁,获取成功的线程更新map;失败的线程尝试多次获取锁仍未成功,则挂起线程,等待释放锁 | 访问相应的bucket时,使用sychronizeded关键字,防止多个线程同时操作同一个bucket,如果该节点的hash不小于0,则遍历链表更新节点或插入新节点;如果该节点是TreeBin类型的节点,说明是红黑树结构,则通过putTreeVal方法往红黑树中插入节点;更新了节点数量,还要考虑扩容和链表转红黑树 |
size实现 | 统计每个Segment对象中的元素个数,然后进行累加,但是这种方式计算出来的结果并不一样的准确的。先采用不加锁的方式,连续计算元素的个数,最多计算3次:如果前后两次计算结果相同,则说明计算出来的元素个数是准确的;如果前后两次计算结果都不同,则给每个Segment进行加锁,再计算一次元素的个数 | 通过累加baseCount和CounterCell数组中的数量,即可得到元素的总个数 |
【面试篇】ConcurrentHashMap1.8 扩容细节_Mind_programmonkey的博客-CSDN博客
ConcurrentHashMap底层详解(图解扩容)(JDK1.8)_愿万事胜意-CSDN博客
ConcurrentHashMap源码解析(jdk1.8)_programmer_at的专栏-CSDN博客_concurrenthashmap源码