面经

面试必备:HashMap源码解析(JDK8)

2017-11-11  本文已影响291人  野梦M

1 概述

本文将从几个常用方法下手,来阅读HashMap的源码。

按照从构造方法->常用API(增、删、改、查)的顺序来阅读源码,并会讲解阅读方法中涉及的一些变量的意义。了解HashMap的特点、适用场景。

如果本文中有不正确的结论、说法,请大家提出和我讨论,共同进步,谢谢。

2 概要

概括的说,HashMap是一个关联数组、哈希表,它是线程不安全的,允许key为null,value为null。遍历时无序

其底层数据结构是数组称之为哈希桶,每个桶里面放的是链表,链表中的每个节点,就是哈希表中的每个元素

在JDK8中,当链表长度达到8,会转化成红黑树,以提升它的查询、插入效率,它实现了Map, Cloneable, Serializable接口。

因其底层哈希桶的数据结构是数组,所以也会涉及到扩容的问题。

当HashMap的容量达到threshold域值时,就会触发扩容。扩容前后,哈希桶的长度一定会是2的次方

这样在根据key的hash值寻找对应的哈希桶时,可以用位运算替代取余操作更加高效

而key的hash值,并不仅仅只是key对象的hashCode()方法的返回值,还会经过扰动函数的扰动,以使hash值更加均衡。

因为hashCode()是int类型,取值范围是40多亿,只要哈希函数映射的比较均匀松散,碰撞几率是很小的。

但就算原本的hashCode()取得很好,每个key的hashCode()不同,但是由于HashMap的哈希桶的长度远比hash取值范围小,默认是16,所以当对hash值以桶的长度取余,以找到存放该key的桶的下标时,由于取余是通过与操作完成的,会忽略hash值的高位。因此只有hashCode()的低位参加运算,发生不同的hash值,但是得到的index相同的情况的几率会大大增加,这种情况称之为hash碰撞。即,碰撞率会增大。

扰动函数就是为了解决hash碰撞的。它会综合hash值高位和低位的特征,并存放在低位,因此在与运算时,相当于高低位一起参与了运算,以减少hash碰撞的概率。(在JDK8之前,扰动函数会扰动四次,JDK8简化了这个操作)

扩容操作时,会new一个新的Node数组作为哈希桶,然后将原哈希表中的所有数据(Node节点)移动到新的哈希桶中,相当于对原哈希表中所有的数据重新做了一个put操作。所以性能消耗很大,可想而知,在哈希表的容量越大时,性能消耗越明显。

扩容时,如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。

因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位=  low位+原哈希桶容量

如果追加节点后,链表数量》=8,则转化为红黑树

由迭代器的实现可以看出,遍历HashMap时,顺序是按照哈希桶从低到高,链表从前往后,依次遍历的。属于无序集合。

整个HashMap示意图:图片来源于网络,侵删:

HashMap的源码中,充斥个各种位运算代替常规运算的地方,以提升效率:

与运算替代模运算。用hash & (table.length-1)替代hash % (table.length)

用if ((e.hash & oldCap) == 0)判断扩容后,节点e处于低区还是高区。

3 链表节点Node

在开始之前,我们先看一下挂载在哈希表上的元素,链表的结构:

static class Node implements Map.Entry {        final inthash;//哈希值        final K key;//key        V value;//value        Node next;//链表后置节点        Node(inthash, K key, V value, Node next) {            this.hash =hash;            this.key = key;            this.value = value;            this.next = next;        }        public final KgetKey()        {returnkey; }        public final VgetValue()      {returnvalue; }        public final StringtoString() {returnkey +"="+ value; }        //每一个节点的hash值,是将key的hashCode 和 value的hashCode 亦或得到的。        public final inthashCode() {returnObjects.hashCode(key) ^ Objects.hashCode(value);        }        //设置新的value 同时返回旧value        public final VsetValue(V newValue) {            V oldValue = value;            value = newValue;returnoldValue;        }        public final boolean equals(Object o) {if(o == this)returntrue;if(o instanceof Map.Entry) {                Map.Entry e = (Map.Entry)o;if(Objects.equals(key, e.getKey()) &&                    Objects.equals(value, e.getValue()))returntrue;            }returnfalse;        }    }

由此可知,这是一个单链表~。

每一个节点的hash值,是将key的hashCode 和 value的hashCode 亦或得到的。

4 构造函数

//最大容量 2的30次方    static final int MAXIMUM_CAPACITY = 1 << 30;    //默认的加载因子    static finalfloatDEFAULT_LOAD_FACTOR = 0.75f;    //哈希桶,存放链表。 长度是2的N次方,或者初始化时为0.    transient Node[] table;    //加载因子,用于计算哈希表元素数量的阈值。  threshold = 哈希桶.length * loadFactor;    finalfloatloadFactor;    //哈希表内元素数量的阈值,当哈希表内元素数量超过阈值时,会发生扩容resize()。    int threshold;    publicHashMap() {        //默认构造函数,赋值加载因子为默认的0.75f        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted    }    public HashMap(int initialCapacity) {        //指定初始化容量的构造函数        this(initialCapacity, DEFAULT_LOAD_FACTOR);    }    //同时指定初始化容量 以及 加载因子, 用的很少,一般不会修改loadFactor    public HashMap(int initialCapacity,floatloadFactor) {        //边界处理if(initialCapacity < 0)            throw new IllegalArgumentException("Illegal initial capacity: "+                                              initialCapacity);        //初始容量最大不能超过2的30次方if(initialCapacity > MAXIMUM_CAPACITY)            initialCapacity = MAXIMUM_CAPACITY;        //显然加载因子不能为负数if(loadFactor <= 0 || Float.isNaN(loadFactor))            throw new IllegalArgumentException("Illegal load factor: "+                                              loadFactor);        this.loadFactor = loadFactor;        //设置阈值为  》=初始化容量的 2的n次方的值        this.threshold = tableSizeFor(initialCapacity);    }    //新建一个哈希表,同时将另一个map m 里的所有元素加入表中    public HashMap(Map m) {        this.loadFactor = DEFAULT_LOAD_FACTOR;        putMapEntries(m,false);    }

//根据期望容量cap,返回2的n次方形式的 哈希桶的实际容量 length。 返回值一般会>=capstatic final int tableSizeFor(intcap) {    //经过下面的 或 和位移 运算, n最终各位都是1。        int n =cap- 1;        n |= n >>> 1;        n |= n >>> 2;        n |= n >>> 4;        n |= n >>> 8;        n |= n >>> 16;        //判断n是否越界,返回 2的n次方作为 table(哈希桶)的阈值return(n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;    }

//将另一个Map的所有元素加入表中,参数evict初始化时为false,其他情况为truefinal void putMapEntries(Map m, boolean evict) {        //拿到m的元素数量        int s = m.size();        //如果数量大于0if(s > 0) {            //如果当前表是空的if(table == null) { // pre-size                //根据m的元素数量和当前表的加载因子,计算出阈值floatft = ((float)s / loadFactor) + 1.0F;                //修正阈值的边界 不能超过MAXIMUM_CAPACITY                int t = ((ft < (float)MAXIMUM_CAPACITY) ?                        (int)ft : MAXIMUM_CAPACITY);                //如果新的阈值大于当前阈值if(t > threshold)                    //返回一个 》=新的阈值的 满足2的n次方的阈值                    threshold = tableSizeFor(t);            }            //如果当前元素表不是空的,但是 m的元素数量大于阈值,说明一定要扩容。elseif(s > threshold)                resize();            //遍历 m 依次将元素加入当前表中。for(Map.Entry e : m.entrySet()) {                K key = e.getKey();                V value = e.getValue();                putVal(hash(key), key, value,false, evict);            }        }    }

先看一下扩容函数: 这是一个重点!重点!重点!

初始化或加倍哈希桶大小。如果是当前哈希桶是null,分配符合当前阈值的初始容量目标。

否则,因为我们扩容成以前的两倍。

在扩容时,要注意区分以前在哈希桶相同index的节点,现在是在以前的index里,还是index+oldlength 里

final Node[]resize() {        //oldTab 为当前表的哈希桶        Node[] oldTab = table;        //当前哈希桶的容量 length        int oldCap = (oldTab == null) ? 0 : oldTab.length;        //当前的阈值        int oldThr = threshold;        //初始化新的容量和阈值为0        int newCap, newThr = 0;        //如果当前容量大于0if(oldCap > 0) {            //如果当前容量已经到达上限if(oldCap >= MAXIMUM_CAPACITY) {                //则设置阈值是2的31次方-1                threshold = Integer.MAX_VALUE;                //同时返回当前的哈希桶,不再扩容returnoldTab;            }//否则新的容量为旧的容量的两倍。elseif((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&                    oldCap >= DEFAULT_INITIAL_CAPACITY)//如果旧的容量大于等于默认初始容量16                //那么新的阈值也等于旧的阈值的两倍                newThr = oldThr << 1; // double threshold        }//如果当前表是空的,但是有阈值。代表是初始化时指定了容量、阈值的情况elseif(oldThr > 0) // initial capacity was placedinthreshold            newCap = oldThr;//那么新表的容量就等于旧的阈值else{}//如果当前表是空的,而且也没有阈值。代表是初始化时没有任何容量/阈值参数的情况              // zero initial threshold signifies using defaults            newCap = DEFAULT_INITIAL_CAPACITY;//此时新表的容量为默认的容量 16            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//新的阈值为默认容量16 * 默认加载因子0.75f = 12        }if(newThr == 0) {//如果新的阈值是0,对应的是  当前表是空的,但是有阈值的情况floatft = (float)newCap * loadFactor;//根据新表容量 和 加载因子 求出新的阈值            //进行越界修复            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?                      (int)ft : Integer.MAX_VALUE);        }        //更新阈值        threshold = newThr;        @SuppressWarnings({"rawtypes","unchecked"})        //根据新的容量 构建新的哈希桶            Node[] newTab = (Node[])new Node[newCap];        //更新哈希桶引用        table = newTab;        //如果以前的哈希桶中有元素        //下面开始将当前哈希桶中的所有节点转移到新的哈希桶中if(oldTab != null) {            //遍历老的哈希桶for(int j = 0; j < oldCap; ++j) {                //取出当前的节点 e                Node e;                //如果当前桶中有元素,则将链表赋值给eif((e = oldTab[j]) != null) {                    //将原哈希桶置空以便GC                    oldTab[j] = null;                    //如果当前链表中就一个元素,(没有发生哈希碰撞)if(e.next == null)                        //直接将这个元素放置在新的哈希桶里。                        //注意这里取下标 是用 哈希值 与 桶的长度-1 。 由于桶的长度是2的n次方,这么做其实是等于 一个模运算。但是效率更高                        newTab[e.hash & (newCap - 1)] = e;                        //如果发生过哈希碰撞 ,而且是节点数超过8个,转化成了红黑树(暂且不谈 避免过于复杂, 后续专门研究一下红黑树)elseif(e instanceof TreeNode)                        ((TreeNode)e).split(this, newTab, j, oldCap);                    //如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。else{ // preserve order                        //因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位=  low位+原哈希桶容量                        //低位链表的头结点、尾节点                        Node loHead = null, loTail = null;                        //高位链表的头节点、尾节点                        Node hiHead = null, hiTail = null;                        Node next;//临时节点 存放e的下一个节点do{                            next = e.next;                            //这里又是一个利用位运算 代替常规运算的高效点: 利用哈希值 与 旧的容量,可以得到哈希值去模后,是大于等于oldCap还是小于oldCap,等于0代表小于oldCap,应该存放在低位,否则存放在高位if((e.hash & oldCap) == 0) {                                //给头尾节点指针赋值if(loTail == null)                                    loHead = e;elseloTail.next = e;                                loTail = e;                            }//高位也是相同的逻辑else{if(hiTail == null)                                    hiHead = e;elsehiTail.next = e;                                hiTail = e;                            }//循环直到链表结束                        }while((e = next) != null);                        //将低位链表存放在原index处,if(loTail != null) {                            loTail.next = null;                            newTab[j] = loHead;                        }                        //将高位链表存放在新index处if(hiTail != null) {                            hiTail.next = null;                            newTab[j + oldCap] = hiHead;                        }                    }                }            }        }returnnewTab;    }

再看一下 往哈希表里插入一个节点的putVal函数,如果参数onlyIfAbsent是true,那么不会覆盖相同key的值value。如果evict是false。那么表示是在初始化时调用的

final V putVal(inthash, K key, V value, boolean onlyIfAbsent,                  boolean evict) {        //tab存放 当前的哈希桶, p用作临时链表节点          Node[] tab; Node p; int n, i;        //如果当前哈希表是空的,代表是初始化if((tab = table) == null || (n = tab.length) == 0)            //那么直接去扩容哈希表,并且将扩容后的哈希桶长度赋值给n            n = (tab = resize()).length;        //如果当前index的节点是空的,表示没有发生哈希碰撞。 直接构建一个新节点Node,挂载在index处即可。        //这里再啰嗦一下,index 是利用 哈希值 & 哈希桶的长度-1,替代模运算if((p = tab[i = (n - 1) &hash]) == null)            tab[i] = newNode(hash, key, value, null);else{//否则 发生了哈希冲突。            //e            Node e; K k;            //如果哈希值相等,key也相等,则是覆盖value操作if(p.hash ==hash&&                ((k = p.key) == key || (key != null && key.equals(k))))                e = p;//将当前节点引用赋值给eelseif(p instanceof TreeNode)//红黑树暂且不谈                e = ((TreeNode)p).putTreeVal(this, tab,hash, key, value);else{//不是覆盖操作,则插入一个普通链表节点                //遍历链表for(int binCount = 0; ; ++binCount) {if((e = p.next) == null) {//遍历到尾部,追加新节点到尾部                        p.next = newNode(hash, key, value, null);                        //如果追加节点后,链表数量》=8,则转化为红黑树if(binCount >= TREEIFY_THRESHOLD - 1) // -1for1st                            treeifyBin(tab,hash);break;                    }                    //如果找到了要覆盖的节点if(e.hash ==hash&&                        ((k = e.key) == key || (key != null && key.equals(k))))break;                    p = e;                }            }            //如果e不是null,说明有需要覆盖的节点,if(e != null) { // existing mappingforkey                //则覆盖节点值,并返回原oldValue                V oldValue = e.value;if(!onlyIfAbsent || oldValue == null)                    e.value = value;                //这是一个空实现的函数,用作LinkedHashMap重写使用。                afterNodeAccess(e);returnoldValue;            }        }        //如果执行到了这里,说明插入了一个新的节点,所以会修改modCount,以及返回null。        //修改modCount        ++modCount;        //更新size,并判断是否需要扩容。if(++size > threshold)            resize();        //这是一个空实现的函数,用作LinkedHashMap重写使用。        afterNodeInsertion(evict);returnnull;    }

newNode如下:构建一个链表节点

// Create a regular (non-tree) node    Node newNode(inthash, K key, V value, Node next) {returnnew Node<>(hash, key, value, next);    }

// Callbacks to allow LinkedHashMap post-actions

void afterNodeAccess(Node p) { }

void afterNodeInsertion(boolean evict) { }

小结:

运算尽量都用位运算代替,更高效

对于扩容导致需要新建数组存放更多元素时,除了要将老数组中的元素迁移过来,也记得将老数组中的引用置null,以便GC

取下标 是用哈希值 与运算 (桶的长度-1)i = (n - 1) & hash。 由于桶的长度是2的n次方,这么做其实是等于 一个模运算。但是效率更高

扩容时,如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。

因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位=  low位+原哈希桶容量

利用哈希值 与运算 旧的容量,if ((e.hash & oldCap) == 0),可以得到哈希值去模后,是大于等于oldCap还是小于oldCap,等于0代表小于oldCap,应该存放在低位,否则存放在高位。这里又是一个利用位运算 代替常规运算的高效点

如果追加节点后,链表数量》=8,则转化为红黑树

插入节点操作时,有一些空实现的函数,用作LinkedHashMap重写使用。

5 增、改

1往表中插入或覆盖一个key-value

public V put(K key, V value) {        //先根据key,取得hash值。 再调用上一节的方法插入节点returnputVal(hash(key), key, value,false,true);    }

这个根据key取hash值的函数也要关注一下,它称之为“扰动函数”,关于这个函数的用处 开头已经总结过了:

static final inthash(Object key) {        int h;return(key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);    }

而key的hash值,并不仅仅只是key对象的hashCode()方法的返回值,还会经过扰动函数的扰动,以使hash值更加均衡。

因为hashCode()是int类型,取值范围是40多亿,只要哈希函数映射的比较均匀松散,碰撞几率是很小的。

但就算原本的hashCode()取得很好,每个key的hashCode()不同,但是由于HashMap的哈希桶的长度远比hash取值范围小,默认是16,所以当对hash值以桶的长度取余,以找到存放该key的桶的下标时,由于取余是通过与操作完成的,会忽略hash值的高位。因此只有hashCode()的低位参加运算,发生不同的hash值,但是得到的index相同的情况的几率会大大增加,这种情况称之为hash碰撞。即,碰撞率会增大。

扰动函数就是为了解决hash碰撞的。它会综合hash值高位和低位的特征,并存放在低位,因此在与运算时,相当于高低位一起参与了运算,以减少hash碰撞的概率。(在JDK8之前,扰动函数会扰动四次,JDK8简化了这个操作)

2往表中批量增加数据

public void putAll(Map m) {        //这个函数上一节也已经分析过。//将另一个Map的所有元素加入表中,参数evict初始化时为false,其他情况为trueputMapEntries(m,true);    }

3 只会往表中插入 key-value, 若key对应的value之前存在,不会覆盖。(jdk8增加的方法)

@Override    public V putIfAbsent(K key, V value) {returnputVal(hash(key), key, value,true,true);    }

6 删

以key为条件删除

如果key对应的value存在,则删除这个键值对。 并返回value。如果不存在 返回null。

public V remove(Object key) {        Node e;return(e = removeNode(hash(key), key, null,false,true)) == null ?            null : e.value;    }

//从哈希表中删除某个节点, 如果参数matchValue是true,则必须key 、value都相等才删除。

//如果movable参数是false,在删除节点时,不移动其他节点

final Node removeNode(inthash, Object key, Object value,                              boolean matchValue, boolean movable) {        // p 是待删除节点的前置节点        Node[] tab; Node p; int n, index;        //如果哈希表不为空,则根据hash值算出的index下 有节点的话。if((tab = table) != null && (n = tab.length) > 0 &&            (p = tab[index = (n - 1) &hash]) != null) {            //node是待删除节点            Node node = null, e; K k; V v;            //如果链表头的就是需要删除的节点if(p.hash ==hash&&                ((k = p.key) == key || (key != null && key.equals(k))))                node = p;//将待删除节点引用赋给nodeelseif((e = p.next) != null) {//否则循环遍历 找到待删除节点,赋值给nodeif(p instanceof TreeNode)                    node = ((TreeNode)p).getTreeNode(hash, key);else{do{if(e.hash ==hash&&                            ((k = e.key) == key ||                            (key != null && key.equals(k)))) {                            node = e;break;                        }                        p = e;                    }while((e = e.next) != null);                }            }            //如果有待删除节点node,  且 matchValue为false,或者值也相等if(node != null && (!matchValue || (v = node.value) == value ||                                (value != null && value.equals(v)))) {if(node instanceof TreeNode)                    ((TreeNode)node).removeTreeNode(this, tab, movable);elseif(node == p)//如果node ==  p,说明是链表头是待删除节点                    tab[index] = node.next;else//否则待删除节点在表中间                    p.next = node.next;                ++modCount;//修改modCount                --size;//修改size                afterNodeRemoval(node);//LinkedHashMap回调函数returnnode;            }        }returnnull;    }

void afterNodeRemoval(Node p) { }

以key value 为条件删除

@Override    public boolean remove(Object key, Object value) {        //这里传入了value 同时matchValue为truereturnremoveNode(hash(key), key, value,true,true) != null;    }

7 查

以key为条件,找到返回value。没找到返回null

public V get(Object key) {        Node e;        //传入扰动后的哈希值 和 key 找到目标节点Nodereturn(e = getNode(hash(key), key)) == null ? null : e.value;    }

//传入扰动后的哈希值 和 key 找到目标节点Node    final Node getNode(inthash, Object key) {        Node[] tab; Node first, e; int n; K k;        //查找过程和删除基本差不多, 找到返回节点,否则返回nullif((tab = table) != null && (n = tab.length) > 0 &&            (first = tab[(n - 1) &hash]) != null) {if(first.hash ==hash&& // always check first node                ((k = first.key) == key || (key != null && key.equals(k))))returnfirst;if((e = first.next) != null) {if(first instanceof TreeNode)return((TreeNode)first).getTreeNode(hash, key);do{if(e.hash ==hash&&                        ((k = e.key) == key || (key != null && key.equals(k))))returne;                }while((e = e.next) != null);            }        }returnnull;    }

判断是否包含该key

public boolean containsKey(Object key) {returngetNode(hash(key), key) != null;    }

判断是否包含value

public boolean containsValue(Object value) {        Node[] tab; V v;        //遍历哈希桶上的每一个链表if((tab = table) != null && size > 0) {for(int i = 0; i < tab.length; ++i) {for(Node e = tab[i]; e != null; e = e.next) {                    //如果找到value一致的返回trueif((v = e.value) == value ||                        (value != null && value.equals(v)))returntrue;                }            }        }returnfalse;    }

java8新增,带默认值的get方法

以key为条件,找到了返回value。否则返回defaultValue

@Override    public V getOrDefault(Object key, V defaultValue) {        Node e;return(e = getNode(hash(key), key)) == null ? defaultValue : e.value;    }

遍历

//缓存 entrySet    transient Set> entrySet;    */    public Set>entrySet() {        Set> es;return(es = entrySet) == null ? (entrySet = new EntrySet()) : es;    }

final class EntrySet extends AbstractSet> {        public final intsize()                {returnsize; }        public final voidclear()              { HashMap.this.clear(); }        //一般我们用到EntrySet,都是为了获取iterator        public final Iterator>iterator() {returnnew EntryIterator();        }        //最终还是调用getNode方法        public final boolean contains(Object o) {if(!(o instanceof Map.Entry))returnfalse;            Map.Entry e = (Map.Entry) o;            Object key = e.getKey();            Node candidate = getNode(hash(key), key);returncandidate != null && candidate.equals(e);        }        //最终还是调用removeNode方法        public final boolean remove(Object o) {if(o instanceof Map.Entry) {                Map.Entry e = (Map.Entry) o;                Object key = e.getKey();                Object value = e.getValue();returnremoveNode(hash(key), key, value,true,true) != null;            }returnfalse;        }        //。。。    }

//EntryIterator的实现:

final class EntryIterator extends HashIterator        implements Iterator> {        public final Map.Entrynext() {returnnextNode(); }    }

abstract class HashIterator {        Node next;        // next entry toreturnNode current;    // current entry        int expectedModCount;  //forfast-fail        int index;            // current slotHashIterator() {            //因为hashmap也是线程不安全的,所以要保存modCount。用于fail-fast策略            expectedModCount = modCount;            Node[] t = table;            current = next = null;            index = 0;            //next 初始时,指向 哈希桶上第一个不为null的链表头if(t != null && size > 0) { // advance to first entrydo{}while(index < t.length && (next = t[index++]) == null);            }        }        public final booleanhasNext() {returnnext != null;        }        //由这个方法可以看出,遍历HashMap时,顺序是按照哈希桶从低到高,链表从前往后,依次遍历的。属于无序集合。        final NodenextNode() {            Node[] t;            Node e = next;            //fail-fast策略if(modCount != expectedModCount)                throw new ConcurrentModificationException();if(e == null)                throw new NoSuchElementException();            //依次取链表下一个节点,if((next = (current = e).next) == null && (t = table) != null) {                //如果当前链表节点遍历完了,则取哈希桶下一个不为null的链表头do{}while(index < t.length && (next = t[index++]) == null);            }returne;        }        public final voidremove() {            Node p = current;if(p == null)                throw new IllegalStateException();            ////fail-fast策略if(modCount != expectedModCount)                throw new ConcurrentModificationException();            current = null;            K key = p.key;            //最终还是利用removeNode 删除节点            removeNode(hash(key), key, null,false,false);            expectedModCount = modCount;        }    }

8 总结

HashMap特点和精髓可以参看本文第二章【概要】 和第四章的【小结】部分。

后续会另开新篇聊一聊红黑树。

20170920 add,从网上转了一张图,据说来自美团,侵删:

20170920,从网上转了一张图,据说来自美团,侵删

9 与HashTable的区别

与之相比HashTable是线程安全的,且不允许key、value是null。

HashTable默认容量是11。

HashTable是直接使用key的hashCode(key.hashCode())作为hash值,不像HashMap内部使用static final int hash(Object key)扰动函数对key的hashCode进行扰动后作为hash值。

HashTable取哈希桶下标是直接用模运算%.(因为其默认容量也不是2的n次方。所以也无法用位运算替代模运算)

扩容时,新容量是原来的2倍+1。int newCapacity = (oldCapacity << 1) + 1;

Hashtable是Dictionary的子类同时也实现了Map接口,HashMap是Map接口的一个实现类;

大家可以点击加入群:478052716【JAVA高级程序员】里面有Java高级大牛直播讲解知识点 走的就是高端路线(如果你想跳槽换工作 但是技术又不够 或者工作上遇到了瓶颈 我这里有一个JAVA的免费直播课程 讲的是高端的知识点基础不好的勿入哟 只要你有1-5年的开发经验可以加群找我要课堂链接 注意:是免费的 没有开发经验勿入哦)

上一篇 下一篇

猜你喜欢

热点阅读