《数据结构与算法之美》笔记—HashMap
2020-03-30 本文已影响0人
波波维奇c
先抛出问题,根据问题在源码中寻找答案:
1.HashMap默认的初始长度是多少?为什么这么规定?
2.HashMap 底层的数据结构是什么?
3.HashMap 为何可以允许键值为空?
4.HashMap 拓容倍数为什么一定要是2的n次幂
5.HashMap 是如何计算存储的下标的?
6.HashMap 是如何扩容的?
7.HashMap 在扩容的时候是如何解决 Hash 冲突的
HashMap默认的初始长度是多少?为什么这么规定?
一般初始化的东西我们都会去找构造法看看,HashMap 由4个构造参数,一般我们使用的是无参的构造方法,它只初始化了负载系数,那么负载系数是干吗的呢?下面再讲。
....
static final float DEFAULT_LOAD_FACTOR = 0.75f;
static final int MAXIMUM_CAPACITY = 1 << 30;
....
//传容量和负载系数的构造方法
public HashMap(int initialCapacity, float loadFactor) {
//小于 0 抛异常
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
//这里可以知道如果初始化的容量超过 MAXIMUM_CAPACITY 会默认等于 MAXIMUM_CAPACITY
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//负载系数小于0 或 属于非法的 flaot 抛异常
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
//常用的初始化,只初始化了 负载系数
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
从构造方法我们只能知道 负载系数,和最大的容量,真正的初始化还是没有,其实真正的初始化是在我们 第一次 put 存值的时候,更准确的说是在 resize ( ) 方法里面。
public V put(K key, V value) {
//对 key 进行Hash 计算,得到 数组的下表 i
return putVal(hash(key), key, value, false, true);
}
//这里就回答了 2.HashMap 为何可以允许键值为空?
//因为如果为null返回的下标位 0
//如果不为 null 时 h^h>>>16 (意思就是让高16位和低16位进行 异或运算)
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
这里用一个标准的网络图片解释一下计算过程,通过 hashCode 得到了 h 让 h 和 h>>>16 进行异或运算 返回了 hash 值,但是呢,这个值还并不是我们最终确定的位置得到 hash,还需要在我们存值(putvalue方法)的时候在进行一次 (n-1)& hash 的与运算。(这里也就回答了 HashMap 是如何计算存储的下标的?这个问题)
1.为什么不直接用 hashCode 处理后的哈希码作为下标
2.为什么要经过 hashCode 后还要进行 异或运算
3.为什么最终的下标是通过 (n-1)&hash 确定的
这三个问题相当于 HashMap 是如何计算存储的下标的?的衍生问题了
回答:
1.因为直接用 hashCode 处理后直接使用的话容易出现不在数组范围内下标,从而导致无法匹配存储位置。
2.让 int 的高位参与低位的运算,使分配更加均匀,也就是减低了 hash 碰撞的概率。
3.通过 (n-1)&hash 来确定下标主要是为了解决取模的效率问题, 其实也可以是这样的:index = hash%length,但是官方没有采用,而采用了 (n-1)&hash 来确定下标 ,但是这种情况必须有个前提条件 length的长度必须是2的n次幂,这也是拓容倍数为什么一定要是2的n次幂的原因。
....
//链表转为红黑树的阀值
static final int TREEIFY_THRESHOLD = 8;
...
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//当数组为空的时候 tab 数组被resize()赋值
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//判断这个下标是否存在值,存在则代表存在Hash冲突,即当前存储位置已存在节点
//tab[i]==null 代表不存在则直接新建一个节点
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//如果存在值(Hash冲突),并且key相等的时候直接赋值
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//插入的数据结构是否是 TreeNode(红黑树)
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//遍历链表
for (int binCount = 0; ; ++binCount) {
//如果链表的最后一个元素,都找不到key值相等的,则新建一个节点
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
//如果链表的节点数,大于转化为数的阀值的时候,转为红黑数
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//如果有key值相等的则覆盖
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 插入成功后,判断实际存在的键值对数量size 是否大于下一次需要调整的容量大小 threshold
// 若 大于,则进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
HashMap 底层的数据结构是什么?
JDK1.8 数据结构: 数组+链表+红黑树
经过上面 put 源码的分析,我们知道在添加的时候有3中添加情况,数组,链表,红黑树
HashMap 是如何扩容的?
resize()
....
/**
* The default initial capacity - MUST be a power of two.
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
....
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//判读老容量是否大于0
if (oldCap > 0) {
//判断是否超过最大容量,超过最大容量就不再扩充
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//如果没有超过最大值,就扩充为原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
//这里的英文注释也说的很清楚了在这里初始化操作
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}