学习笔记——Android开源库

HashMap实现原理、源码解析(jdk1.8)

2019-11-20  本文已影响0人  zhangwenhao

HashMap实现原理、源码解析(jdk1.8)




基本概念

public class HashMap<K,V> extends AbstractMap<K,V>
    implements Map<K,V>, Cloneable, Serializable {···}

数据结构

源码分析

数据结构表示

//HashMap的静态内部类 Node 用于表示节点
    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        V value;
        Node<K,V> next;

        Node(int hash, K key, V value, Node<K,V> next) {···}

        public final K getKey()        {···}
        public final V getValue()      {···}
        public final String toString() {···}

        public final int hashCode() {···}

        public final V setValue(V newValue) {···}

        public final boolean equals(Object o) {···}
    }
    static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
        TreeNode<K,V> parent;  // red-black tree links
        TreeNode<K,V> left;
        TreeNode<K,V> right;
        TreeNode<K,V> prev;    // needed to unlink next upon deletion
        boolean red;
        
        TreeNode(int hash, K key, V val, Node<K,V> next) {
            super(hash, key, val, next);
        }
        ···
    }
    
    //继承 LinkedHashMap.Entry 的
    Entry<K,V> before, after;
 
    //HashMap.Node 的
    final int hash;
    final K key;
    V value;
    Node<K,V> next;

几个常量、变量

    //默认数组容量大小:16
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; 
    
    //数组最大容量大小:2 的 30 次方
    static final int MAXIMUM_CAPACITY = 1 << 30;
    
    //默认的加载因子
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    //使用树而不是链表的计数阈值,将元素添加到至少这么多的节点的链表中时,链表将转换为树
    static final int TREEIFY_THRESHOLD = 8;
    
    //可以进行树化的最小数组容量
    static final int MIN_TREEIFY_CAPACITY = 64;
    
    //存储键值对元素的数组,分配后,长度始终是 2 的幂(哈希桶数组)
    transient Node<K,V>[] table;
    
    //此映射中包含的键-值映射数,即当前数组中的元素数量
    transient int size;
    
    //主要用于记录HashMap内部结构发生变化的次数。
    transient int modCount;
    
    //哈希表所能容纳的最大键值对个数,下次扩容的临界值,size>=threshold 数组就会扩容
    int threshold;
    
    //负载因子
    final float loadFactor;

构造方法

    /**
     * 使用默认的初始容量(16)和默认的加载因子(0.75)构造一个空的 HashMap
     */
    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }
    
    public HashMap(int initialCapacity) {
         this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }
       
    /**
     * 构造一个新的 HashMap ,其映射与指定的 Map 相同。
     * HashMap 是使用默认负载因子(0.75)和足以将映射保存在指定的 Map 中的初始容量创建的
     */
    public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }
    
    /**
     * 构造一个带指定初始容量和加载因子的空 HashMap。
     */
    public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }

确定哈希桶数组索引位置

//经过两步操作最后得到的才是我们用来确定位置的hash值
    static final int hash(Object key) {
        int h;
        // h = key.hashCode() 为第一步 取hashCode值
        // h ^ (h >>> 16)  为第二步 高位参与运算
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }
//确定hash值之后的操作就是确定在哈希桶中的位置了
//下面是 put() 方法中的一行代码,n为哈希桶数组长度,hash为前一步确定的hash值
    p = tab[i = (n - 1) & hash]
HashMap确定哈希桶数组索引位置的位移运算举例

put 插入过程

HashMap的put过程图解
    public V put(K key, V value) {
        //这里调用了hash()方法,拿到了Key的hash值
        return putVal(hash(key), key, value, false, true);
    }
    
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //第一部分:哈希桶数组是否为空,为空则使用默认值创建
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //第二部分:拿到index对应的数组元素(节点),判断是否为空,为空则直接插入
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        //第三部分:节点存在,发生哈希碰撞,解决哈希碰撞
        else {
            Node<K,V> e; K k;
            //第三部分第一小节:Key存在,则直接覆盖Value
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            //第三部分第二小节:节点所处的数据结构是否为红黑树
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            //第三部分第三小节:节点所处的数据结构为链表,遍历链表节点
            else {
                for (int binCount = 0; ; ++binCount) {
                    //第三小节第一段:是否存在节点,不存在则创建
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        //这个时候计数阈值大于了8则转换为红黑树进行操作
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    //第三小节第二段:Key存在则直接覆盖
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    //第三小节第三段:
                    p = e;
                }
            }
            //第三部分第四小节:
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        //第四部分:链表中的元素数量大于阈值,则扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

resize 扩容机制

 final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        //第一部分:排除异常情况,扩容
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        //第二部分:设置阈值
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        //第三部分:旧数据保存在新数组里面
        if (oldTab != null) {
            //遍历旧数组
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                     //只有一个节点,通过索引位置直接映射
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    //如果是红黑树,需要进行树拆分然后映射
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    //如果是多个节点的链表,将原链表拆分为两个链表
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            //原索引
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            //原索引 + oldCap
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                         //链表1存于原索引
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        //链表2存于原索引加上原hash桶长度的偏移量
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
if ((e.hash & oldCap) == 0) {···}
举个例子:n = 16,二进制为10000,第5位为1,e.hash & oldCap 是否等于0就取决于e.hash第5 位是0还是1,这就相当于有50%的概率放在新hash表低位,50%的概率放在新hash表高位。

线程安全性

解决冲突

学完 HashMap 原理之后,我们应该解决的问题

HashMap的底层数据结构是什么?

jdk1.7 及之前的版本是:数组 + 链表
jdk1.8 版本是:数组 + 链表 + 红黑树

为什么是红黑树呢?

红黑树是一个自平衡的二叉查找树,也就是说红黑树的查找效率是非常的高,查找效率会从链表的o(n)降低为o(logn)。

为什么不一下子把整个链表变为红黑树呢?

1. 构造红黑树要比构造链表复杂,在链表的节点不多的时候,从整体的性能看来, 数组+链表+红黑树的结构可能不一定比数组+链表的结构性能高。

2. HashMap 频繁的扩容,会造成底部红黑树不断的进行拆分和重组,这是非常耗时的。因此,也就是链表长度比较长的时候转变成红黑树才会显著提高效率。

HashMap中增删改查操作的底部实现原理是什么?

太多了,自己想想put过程、数据结构等

为什么HashMap容量一定要为16或者2的幂呢?

HashMap 采用这种非常规设计,主要是为了在取模和扩容时做优化,同时为了减少hash碰撞,HashMap 定位哈希桶索引位置时,也加入了高位参与运算的过程。

长度16或者其他2的幂,Length-1的值是所有二进制位全为1,这种情况下,index的结果等同于HashCode后几位的值。只要输入的HashCode本身分布均匀,Hash算法的结果就是均匀的。

如果不为16或者2的幂,那么,经过hash算法之后,有些index结果出现的概率会更大,而有些index则永远步会出现。即不符合hash算法的j均匀分布的原则。

为什么负载因子默认值会是0.75呢?

在HashMap的源码中有这样一段注解:
     * Because TreeNodes are about twice the size of regular nodes, we
     * use them only when bins contain enough nodes to warrant use
     * (see TREEIFY_THRESHOLD). And when they become too small (due to
     * removal or resizing) they are converted back to plain bins.  In
     * usages with well-distributed user hashCodes, tree bins are
     * rarely used.  Ideally, under random hashCodes, the frequency of
     * nodes in bins follows a Poisson distribution
     * (http://en.wikipedia.org/wiki/Poisson_distribution) with a
     * parameter of about 0.5 on average for the default resizing
     * threshold of 0.75, although with a large variance because of
     * resizing granularity. Ignoring variance, the expected
     * occurrences of list size k are (exp(-0.5) * pow(0.5, k) /
     * factorial(k)). The first values are:
     *
     * 0:    0.60653066
     * 1:    0.30326533
     * 2:    0.07581633
     * 3:    0.01263606
     * 4:    0.00157952
     * 5:    0.00015795
     * 6:    0.00001316
     * 7:    0.00000094
     * 8:    0.00000006
     * more: less than 1 in ten million
     *
大概意思就是:在理想情况下,使用随机哈希吗,节点出现的频率在hash桶中遵循泊松分布,同时给出了桶中元素的个数和概率的对照表。

从上表可以看出当桶中元素到达8个的时候,概率已经变得非常小,也就是说用0.75作为负载因子,每个碰撞位置的链表长度超过8个是几乎不可能的。
hash容器指定初始容量尽量为2的幂次方。
HashMap负载因子为0.75是空间和时间成本的一种折中。

HashMap是如何实现扩容的?

结合resize扩容过程思考,注意转移数据的时候是两个链表(hash表高低位)。

HashMap是如何解决hash冲突的?

链地址法!!!
哈希桶数组元素发生哈希碰撞,产生链表,链表长度不小于8(数组大小不小于64),转换为链表。

HashMap为什么是非线程安全的?

因为源码里面方法全部都是非线程安全的呀。
可以将 HashMap 转变为线程安全的:

HashMap<Integer, String> hashMap1 = (HashMap<Integer, String>) Collections.synchronizedMap(hashMap);

HashMap 与 Hashtable 的区别?

1. HashMap线程不安全,是非synchronized的,Hashtable是线程安全的。

2. HashMap可以接受null(HashMap可以接受为null的键值(key)和值(value)),而Hashtable则不行。

3. 是HashMap的迭代器(Iterator)是fail-fast迭代器,而Hashtable的enumerator迭代器不是fail-fast的。所以当有其它线程改变了HashMap的结构(增加或者移除元素),将会抛出ConcurrentModificationException,但迭代器本身的remove()方法移除元素则不会抛出ConcurrentModificationException异常。但这并不是一个一定发生的行为,要看JVM。这条同样也是Enumeration和Iterator的区别。

4. 由于Hashtable是线程安全的也是synchronized,所以在单线程环境下它比HashMap要慢。如果你不需要同步,只需要单一线程,那么使用HashMap性能要好过Hashtable。

5. HashMap不能保证随着时间的推移Map中的元素次序是不变的。

6. 继承的父类不同、作者不同,产生时间不同。HashMap是继承自AbstractMap类,而HashTable是继承自Dictionary类。不过它们都实现了同时实现了Map、Cloneable(可复制)、Serializable(可序列化)这三个接口

7. 初始容量大小和每次扩充容量大小的不同。Hashtable默认的初始大小为11,之后每次扩充,容量变为原来的2n+1。HashMap默认的初始化大小为16。之后每次扩充,容量变为原来的2倍。

8. 计算hash值的方法不同。为了得到元素的位置,首先需要根据元素的Key计算出一个hash值,然后再用这个hash值来计算得到最终的位置。Hashtable直接使用对象的hashCode。然后再使用取余来获得最终的位置,比较耗时。HashMap是通过位运算来进行操作的,效率高。
    下面是 Hashtable 的确定索引方法:
        int hash = key.hashCode();
        int index = (hash & 0x7FFFFFFF) % tab.length;

该怎么设置HashMap的阈值和负载因子呢?

个人认为,不需要设置。只需要设置好数组容量大小就好了。
上一篇下一篇

猜你喜欢

热点阅读