HashMap源码分析
目录
一、数据模型
在网上看过一些所谓的HashMap源码分析,大部分依旧是比较抽象的。究其原因,主要还是对HashMap的数据结构不理解。以下以图示展示。
HashMap中存在一个内部类:
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
// do soemthig
}
该内部类中,有四个属性,我们存储的是key和value。其中hash通过key计算的hashcode值,next是指向下一个节点。由此可以理解存储原理了。
二、重要属性
/**
* The default initial capacity - MUST be a power of two.
*/
// 思考:为什么必须是2的倍数?
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
// 最大长度
static final int MAXIMUM_CAPACITY = 1 << 30;
int threshold;
threshold = capacity * loadFactor,当Size>=threshold的时候,那么就要考虑对数组的扩增了,也就是说,这个的意思就是衡量数组是否需要扩增的一个标准。同时需要对应数组上有元素。
static final float DEFAULT_LOAD_FACTOR = 0.75f;
负载因子:该属性是表示在扩容之前容量占有率的一个标尺。它控制数组存放Node是的疏密程度。loadFactor越趋近于1,那么数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加,loadFactor越小,也就是趋近于0,那么数组中存放的数据也就越稀。默认的0.75f是一个权衡后的值。
static final int TREEIFY_THRESHOLD = 8;
如果链表超过了这个值,则将单链表转变为红黑树。(1.8版本)
static final int UNTREEIFY_THRESHOLD = 6;
如果红黑树的节点被删,且小于该阈值,则变为链表。
transient int size;
记录数组已使用的容量,用来个阈值进行比较。
final float loadFactor;
填充因子
static final int MIN_TREEIFY_CAPACITY = 64;
桶中结构转化为红黑树对应的table的最小大小
三、构造方法
// 构造函数一
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
// 构造函数二
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
// 构造函数三
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
// 构造函数四
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
我们用的最多的就是第一个构造方法,负载因子默认是0.75f。构造函数三是手动设置初始容量和负载因子,构造函数二调用的构造函数三,手动设置初始容量大小。构造函数是将别的map映射到自己的map中。
四、普通方法
put()
上面我们了解了HashMap的存储结构。在给HashMap中添加元素的时候,我们应该考虑这样一个问题:如何确定元素的添加的位置?
我们来分析代码:
public V put(K key, V value) {
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// 如果数组未进行初始化或者为空,则通过resize()初始化,并返回数组的长度
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// (n - 1) & hash 确定节点放在数组的哪个位置(这个表达式中可以看出为什么数组的扩容的长度为什么要是2的n次幂的原因了)
// 确定后的在数组中的该位置为空,则新的节点放在这个位置
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
// 以下的else中的逻辑表示确定的该位置不是空
else {
Node<K,V> e; K k;
// 如果与数组中的节点的hash值相等,则直接取代
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 如果是红黑树节点
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
// 如果是链表节点
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// 节点到达阈值,转为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 如果数组中的元素个数超过阈值,则进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
通过以上的源码,我们可以看出。在添加新节点时,通过hash确定其位置。分以下种情况:
数组的该位置为空,直接添加到该位置
数组的该位置不为空,但是与新节点的hash相同,则直接取代
数组的该位置不为空,且节点下面是单链表
数组的该位置不为空,且元素下面是红黑树
确定位置时,hash值起着重要的作用,我们看看该方法:
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
这里通过位运算重新计算了hash值的值。为什么要重新计算?
主要是因为n值比较小,hash只参与了低位运算,高位运算没有用上。这就增大了hash值的碰撞概率。而通过这种位运算的计算方式,使得高位运算参与其中,减小了hash的碰撞概率,使hash值尽可能散开。
注意:我们在分析重要属性DEFAULT_INITIAL_CAPACITY的时候,数组的初始化或者扩容为什么给必须是2的n次幂?
在以上源码的(n - 1) & hash中给出了答案:(n - 1) & hash等价于对 length 取余。但取余的计算效率没有位运算高,所以(n - 1) & hash也是一个小的优化。例如,假设 hash = 185,n = 16。
resize()
这个方法我们在put()方法中已经调用过,作用是用来进行数组的初始化和扩容。下面看看源码:
final Node<K,V>[] resize() {
// 当前table保存
Node<K,V>[] oldTab = table;
// 保存table大小
int oldCap = (oldTab == null) ? 0 : oldTab.length;
// 保存当前阈值
int oldThr = threshold;
int newCap, newThr = 0;
// 之前table大小大于0
if (oldCap > 0) {
// 之前table大于最大容量
if (oldCap >= MAXIMUM_CAPACITY) {
// 阈值为最大整形
threshold = Integer.MAX_VALUE;
return oldTab;
}
// 容量翻倍,使用左移,效率更高
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 阈值翻倍
newThr = oldThr << 1; // double threshold
}
// 之前阈值大于0
else if (oldThr > 0)
newCap = oldThr;
// oldCap = 0并且oldThr = 0,使用缺省值(如使用HashMap()构造函数,之后再插入一个元素会调用resize函数,会进入这一步)
else {
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
// 新阈值为0
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
// 初始化table
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 之前的table已经初始化过
if (oldTab != null) {
// 复制元素,重新进行hash
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
// 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割,分成两个不同的链表,完成rehash
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
其实仔细分析源代码,基本上只要理解了HashMap的结构,其余的逻辑也就和 清楚了。
get()
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 桶数组不为空且长度大于0且通过hash定位的位置节点不为空,则走以下流程,不然返回null
if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) {
// 如果与桶数组该位置的节点hash相同,则返回该节点
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
// 如果该位置节点还有节点,则继续查找
if ((e = first.next) != null) {
// 桶数组该节点下面是红黑树
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 桶数组该节点下面是链表,遍历
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
五、总结
一直都觉得HashMap的源码很简单,仔细看看,其实不然。其中涉及了很多很多的知识点,比如数据结构就涉及了数组、链表和红黑树。其余的细节都是数不胜数。细细研读该源码一整天,都没有将其中的细节详尽解析。
不过,在这篇文章结束之时,也有一些思考和想法:
1.数据结构是基础,也是灵魂(通常伴随算法)。只有对数据结构了然于心,才能详细了解底层原理;
2.伴随jdk升级的过程中,我们能很明显感受到一些优化。比如将十进制的值优化为二进制的值;十进制的计算优化为位运算;构造函数中,不给出长度,而是在添加第一个元素的时候给出长度(默认长度或者设置的长度);
3.put()方法是HashMap的核心,弄清楚了这个方法,其余的源代码都不难;
4.读源码一定要静下心来,心不静,就只能浮在表面;
5.个人水平和精力有限,难免有漏洞,希望大家多多指教。