JDK1.8 ——HashMap讲解

2019-02-12  本文已影响13人  雨生_

这是一个老生常谈的话题了,这里就自我学习使用,直接开篇了。

字典这种数据类型,不同语言的实现都有些差异,整体思路还是数组加上链表的形式达到插入和查找的时间复杂度都是O(1)级别,HashMap的内容应该从一下几个点理解:

一、数组和链表的结合思路

所以Hash值就是决定他在数组位置的关键,当Hash值重复的时候,就通过链表来往后一次插入和删除就可以了


上面这张图就表示了大概的实现思路,关于树的部分后续会有介绍。

二、内置的属性分析

1. Node节点
static class Node<K,V> implements Map.Entry<K,V> {
        final int hash; // hash 值
        final K key;
        V value;
        Node<K,V> next; //链表指向下一元素的节点

        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }

        public final K getKey()        { return key; }
        public final V getValue()      { return value; }
        public final String toString() { return key + "=" + value; }

        public final int hashCode() {
            return Objects.hashCode(key) ^ Objects.hashCode(value);
        }

        public final V setValue(V newValue) {
            V oldValue = value;
            value = newValue;
            return oldValue;
        }

        public final boolean equals(Object o) {
            if (o == this)
                return true;
            if (o instanceof Map.Entry) {
                Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                if (Objects.equals(key, e.getKey()) &&
                    Objects.equals(value, e.getValue()))
                    return true;
            }
            return false;
        }
    }
2. TreeNode节点
static final class TreeNode<k,v> extends LinkedHashMap.Entry<k,v> {
    TreeNode<k,v> parent;  // 父节点
    TreeNode<k,v> left; //左子树
    TreeNode<k,v> right;//右子树
    TreeNode<k,v> prev;    // needed to unlink next upon deletion
    boolean red;    //颜色属性
    TreeNode(int hash, K key, V val, Node<k,v> next) {
        super(hash, key, val, next);
    }
 
    //返回当前节点的根节点
    final TreeNode<k,v> root() {
        for (TreeNode<k,v> r = this, p;;) {
            if ((p = r.parent) == null)
                return r;
            r = p;
        }
    }
}
3. 常量属性
    private static final long serialVersionUID = 362498820763181265L;
    //默认的容量值,16
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    //最大容量值
    static final int MAXIMUM_CAPACITY = 1 << 30;
    //默认负载因子,当数据量超过他乘以容量值得时候,就会扩容。
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    //链表数据超过这个数字的时候,会树化。
    static final int TREEIFY_THRESHOLD = 8;
    //当树的节点小于这个数字的时候,会回归为链表
    static final int UNTREEIFY_THRESHOLD = 6;
    //桶中结构转化为红黑树对应的table的最小大小
    static final int MIN_TREEIFY_CAPACITY = 64;
    //对应的Hash桶,存放的每个Node节点的数组。
    transient Node<K,V>[] table;
    //遍历用的迭代器
    transient Set<Map.Entry<K,V>> entrySet;
    //实际数据量
    transient int size;
    //修改次数,在迭代器中有作用。
    transient int modCount;
    //下次扩容的数据最大值,为容量 * 负载因子的值,一般提前计算好
    int threshold;
    //负载因子
    final float loadFactor;
4. 构造器

这里需要注意的是,在每个构造器里面,他的table都没有被初始化,他的桶数组实在resize里面初始化的,属于惰性加载,防止初始化了map,却没有使用,导致浪费,后续会有介绍。

//自定义初始化的大小和负载因子
public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }
    //初始化了容量
    public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }

    //默认构造器,所有值都为默认值。
    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; 
    }
    //根据已有的一个Map构建新的HashMap
    public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }

以上的构造器最后一个根据Map构建新的HashMap方法putMapEntries代码:

final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
        int s = m.size();
        if (s > 0) {
            if (table == null) { // 构造器或者空HashMap调用的时候,初始化各种容量系数。
                float ft = ((float)s / loadFactor) + 1.0F;
                int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                         (int)ft : MAXIMUM_CAPACITY);
                if (t > threshold)
                    threshold = tableSizeFor(t); //计算下次扩容数据量
            }
            else if (s > threshold)//超过约定容量,
                resize();
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                K key = e.getKey();
                V value = e.getValue();
                putVal(hash(key), key, value, false, evict);
            }
        }
    }

三、Hash算法

在JDK 1.8中,hash方法如下:

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

(1)首先获取对象的hashCode()值,然后将hashCode值右移16位,然后将右移后的值与原来的hashCode做异或运算,返回结果。(其中h>>>16,在JDK1.8中,优化了高位运算的算法,使用了零扩展,无论正数还是负数,都在高位插入0)。

(2)在putVal源码中,我们通过(n-1)&hash获取该对象的键在hashmap中的位置。(其中hash的值就是(1)中获得的值)其中n表示的是hash桶数组的长度,并且该长度为2的n次方,这样(n-1)&hash就等价于hash%n。因为&运算的效率高于%运算。

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                boolean evict) {
    ...

    if ((p = tab[i = (n - 1) & hash]) == null)//获取位置
        tab[i] = newNode(hash, key, value, null);
    ...
}

tab即是table,n是map集合的容量大小,hash是上面方法的返回值。因为通常声明map集合时不会指定大小,或者初始化的时候就创建一个容量很大的map对象,所以这个通过容量大小与key值进行hash的算法在开始的时候只会对低位进行计算,虽然容量的2进制高位一开始都是0,但是key的2进制高位通常是有值的,因此先在hash方法中将key的hashCode右移16位在与自身异或,使得高位也可以参与hash,更大程度上减少了碰撞率。

下面举例说明下,n为table的长度。

四、主要方法分析

1. putValue

map对外提供的put方法,实际调用代码为私有的putVal方法,具体的代码分析就放到下面的注释里面了。

public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //table为空或者长度为0,表示为初始化,调用resize初始化
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //根据Hash值确定在桶中的位置,如果没有值,则放入。
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        //对应位置有值,进入else
        else {
            Node<K,V> e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;//这里已经存在的值跟要插入的key相同,则直接完成跳出。
            else if (p instanceof TreeNode)// 这个槽内的值已经树化了,调用红黑树的插入方法。
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);//遍历链表插入对应数据
                        //这里表示长度已经达到要树化的临界值,则树化。
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                // 判断链表中结点的key值与插入的元素的key值是否相等
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
            // onlyIfAbsent为false或者旧值为null,则赋予新值。
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                //回调方法
                afterNodeAccess(e);
                return oldValue;//到这里的都是字典里存在key与插入key相同的节点,所以返回了。
            }
        }
        //由于上面的return没有生效,所以这里一定是成功插入,数字增大了,所以modCount自增,size自增,并可能触发扩容。
        ++modCount;
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);//insert回调方法。
        return null;
    }
2. getValue

跟put一样,HashMap内置了一个getVal的方法获取数据,分析如下:

public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        //如果table为空,或者长度为0,或者桶位置为null,证明不存在,直接返回最后的null了
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            //如果节点第一个值就是想要的(key相等),直接返回
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            //链表存在下一个节点,就可以继续查找,否则也是返回最后的null
            if ((e = first.next) != null) {
                if (first instanceof TreeNode)
                    //从树上面查询
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    //链表上遍历查询
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }
3. resize方法

resize方法几乎贯穿了整个HashMap的多个方法,数组的默认初始化同样被包括进去了。

final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;//旧的长度
        int oldThr = threshold;//旧的扩容触发值
        int newCap, newThr = 0;
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {//达到了最大容量,不再扩容
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // 扩容系数翻倍,容量在if条件内翻倍了
        }
        else if (oldThr > 0) 
            newCap = oldThr;
        else {               // 未初始化的map,惰性加载,初始化这几个值。
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }
上一篇 下一篇

猜你喜欢

热点阅读