极客时间:数据结构与算法之美笔记

散列表(中):如何打造一个工业级水平的散列表?

2019-01-19  本文已影响0人  红酥手黄藤酒丶

散列表(中):如何打造一个工业级水平的散列表?

上一篇中,我们了解到,散列表的查询效率并不能笼统地说成是 ○(1)。它跟散列函数、装载因子、散列冲突等都有关系。如果散列函数设计的不好,或者装载因子过高,都可能导致散列冲突发生的概率升高,查询效率下降。

在极端情况下,有些恶意的攻击者,可能会通过精心构造的数据,使得所有的数据经过散列函数之后,都散列在同一个槽里。如果我们使用的是基于链表的冲突解决方法,那这个时候,散列表就会退化为链表,查询的时间复杂度就从 ○(1) 急剧退化成 ○(n)。(妈妈咪呀还好不会有人攻击菜鸟)

如果散列表中有 10 万个数据,退化后的散列表查询的效率就下降了 10 万倍。更直接点说,如果之前运行 100 次查询只需要 0.1 秒,那现在就需要 1 万秒。这就可能会因为查询操作消耗大量 CPU 或者线程资源,导致系统无法响应其他请求,从而达到拒绝服务攻击的目的(DoS)。这就是散列表碰撞攻击的基本原理(难道我要称为黑客了?)

这篇就学习一下,如何设计一个可以应对各种异常情况的工业级散列表,来避免散列表冲突的情况下,散列表性能急剧下降,并且能抵抗散列碰撞攻击?

一、如何设计散列函数?

首先,散列函数的设计不能太复杂。过于复杂的散列函数,势必会消耗很多计算时间,也就间接的影响到散列表的性能。
其次,散列函数生成的值要尽可能随机并且均匀分布,这样才能避免或者最小化散列冲突,而且即便出现冲突,散列到每个槽里的数据也会比较平均,不会出现某个槽内数据特别多的情况。

实际工作中,还要考虑关键字的长度、特点、分布、还有散列表的大小等。这里先学习几个常用的,简单的散列函数的设计方法。

第一个列子就是,上一篇中,有一个学生参加运动会的编号例子,我们把编号的后两位作为散列值。我们还可以用类似的散列函数处理手机号码,因为手机号码前几位重复的可能性很大,但是后面几位就比较随机,我们可以取手机号后四位作为散列值。这种散列函数的设计方法,我们一般叫做 数据分析法。(这个四位的散列值又怎么对应到数组下标的呢?)

第二个例子就是上一篇的开篇思考题,如何实现 Work 拼写检查功能。这里面的散列函数,我们就可以这样设计:将单词中每个字母的 ASCII 码值 “进位”相加,然后再跟散列表的大小求余、取模,作为散列值。比如,英文单词 nice,转换出来的散列值就是下面这样:

//看了半天
//这个 进位 相加
//指的是 n 这个字母与 a 的 ASCII值的差值 
//这个差值用来表示 字母 n 
//26^(字母n在nice单词中的位置)来表示 n 的位置
// 差值 * 26^ (字母n在nice单词中的位置) 来表示 n 的散列值
//所以下面就能看懂了,表示n的散列值+表示i的散列值+表示c的+表示e的 = nice的散列值
hash("nice")=(("n" - "a") * 26*26*26 + ("i" - "a")*26*26 + ("c" - "a")*26+ ("e"-"a")) / 78978

散列函数的设计方法还有很多,比如直接寻址法、平方取中法、折叠法、随机数法等(暂不需要全部掌握)

二、装载因子过大怎么办?

装载因子过大,说明散列表中的元素越多(装载因子=散列表中元素的数量/散列表槽的数量),空闲的位置越少,散列冲突的概率就越大。

对于没有频繁插入和删除的静态数据集合来说,我们很容易根据数据的特点、分部等,设计出完美的、极少冲突的散列函数,因为毕竟之前数据都是已知的。

如果数据集合是频繁变动的,无法事先预估将要加入的数据个数,所以也无法事先申请一个足够大的散列表。随着数据慢慢加入,装载因子就会慢慢变大。当装载因子大到一定程度之后,散列冲突就会变得不可接受。

使用动态扩容来处理装载因子过大的情况
当装载因子过大时,我们进行动态扩容,重新申请一个更大的散列表,将数据搬移到这个新散列表中。假设每次扩容我们都申请一个原来散列表大小两倍的空间。如果原来散列表的装载因子是 0.8 ,那经过扩容后新散列表的装载因子就下降为原来的一半,变成了 0.4

针对数组的扩容,数据搬移操作比较简单,但是针对散列表的扩容,数据搬移操作要复杂很多。因为散列表的大小变了,数据存储的位置也变了(如果散列函数是与数组长度 n 有关的,那么n 变了,散列值自然也会变),所以我们需要通过散列函数重新计算每个数据的存储位置。

动态扩容

类似数组,栈等可以动态扩容的数据结构,散列表动态扩容后的插入时间复杂度也是 ○(1)。
插入时若不需要扩容,则为最好时间复杂度 ○(1),如果需要扩容,最坏时间复杂度为 ○(n),
而插入和扩容是有规律的,当插入多少个数据后一定会执行一次扩容操作,所以使用摊还分析法进行均摊,所以平均时间复杂度接近最好时间复杂度 ○(1)。

对于动态散列表,随着数据的删除,散列表中的数据会越来越少,空闲空间会越来越多。如果我对空间销毁非常敏感,我们可以在装载因子小于某个值之后,启动动态缩容。如果我们更加在意执行效率,能够容忍多消耗一点内存,那么就不需要缩容操作。

当散列表的装载因子超过某个阈值时,就需要进行扩容。装载因子阈值需要选择得当,如果太大会导致冲突过多;如果太小,会导致内存浪费。

装载因子阈值的设置要权衡时间、空间复杂度。如果内存空间不紧张,对执行效率要求很高,可以降低负载因子的阈值;相反,如果内存空间紧张,对执行效率要求又不高,可以增加负载因子的值,甚至可以大于 1(负载因子=散列表中数据/散列表中槽的数量,大于1就表示每个槽可以装载多个数据)。

三、如果避免低效地扩容?

大部分情况下,动态扩容的散列表插入一个数据都很快,但是在特殊情况下,当装载因子已经达到阈值,需要先进行扩容,再插入数据。这个时候,插入数据就会变得很慢,甚至会无法接受。

举一个极端的例子,如果散列表当前大小为 1GB,要想扩容为原来的两倍大小,那就需要对 1GB 的数据重新计算 哈希值(就是散列值),并且从原来的散列表搬移到新的散列表,这听起来是不是很耗时?没错,确实很耗时。

如果我们的业务代码直接服务于用户,尽管大部分情况下,插入一个数据的操作都很快,但是,极个别非常慢(扩容的时候)的插入操作,也会让用户崩溃。这时,“一次性”扩容的机制就不合适了。

所以,将扩容操作穿插在插入操作的过程中,分批完成。当装载因子触达阈值之后,我们只申请新空间,但并不将老的数据搬移到新散列表中。

当有新数据要插入时,我们将新数据插入新散列表中,并且从老的散列表中拿出一个数据放入到新散列表。每次插入一个数据到散列表,我们都重复上面的过程。经过多次插入操作之后,老的散列表中的数据就一点点全部搬移到新散列表中了。这样没有了集中的一次性数据搬移,插入操作就都变得很快了。

边插入边扩容

在上图期间,查询操作如何做呢?对于查询操作,为了兼容新、老列表中的数据,我们先从新散列表中查找,如果没找到,再去老的散列表中查找。

通过这样均摊的方法,将一次性扩容的代价,均摊到多次插入操作中,就避免了一次性扩容耗时过多的情况。这种实现方式,任何情况下,插入一个数据的时间复杂度都是 ○(1)。

算法与数据结构之美学到现在,在链表时掌握的快慢指针比较新奇。
剩下学了这些,觉得比较重要的两个思想,一个是分治,一个就是摊还。
一开始,学习复杂度分析的时候,学到了摊还分析法,在学习散列表的时候,发现还可以这么摊
(将一次性扩容摊还到一次次插入操作中),而分治思想,在归并排序,快排,二分查找,跳表中都有出现。

四、如果选择散列冲突的解决方法?

上一篇中,学到了开放寻址法和链表法。这两种冲突解决方法在实际的软件开发中都非常常用。比如,Java 中 LinkedHashMap 就采用了链表法解决冲突,ThreadLocalMap 是通过线性探测的开放寻址法来解决冲突。那这两种冲突解决方法的优劣势是什么?又各自适合哪些场景?

1. 开放寻址法

优点:
散列表中的数据都存储在数组中,可以有效地利用 CPU 缓存加快查询速度。而且这种方法实现的散列表,序列化起来比较简单。链表法实现的散列表包含指针,序列化起来就没那么容易。

缺点:
用开放寻址法解决冲突的散列表,删除数据的时候比较麻烦,需要特殊标记已经删除掉的数据。而且在开放寻址法中,所有的数据都存储在一个数组中,比起链表法来说,冲突的代价更高(发生冲突后要向后找空位置)。所以使用开放寻址法解决冲突的散列表,装载因子的上限不能太大,这也导致这种方法比链表法更浪费内存空间(装载因子不能大,说明要保持一定的空闲空间,浪费内存空间就是指的这些必须要的空闲空间)。

当数据量比较小、装载因子比较小的时候,适合采用开放寻址法。这也是 Java 中的 ThreadLocalMap 使用开放寻址法解决散列冲突的原因。

2. 链表法

优点:
链表法对内存的利用率比开放寻址法要高。因为链表结点可以在需要的时候再创建,并不需要像开放寻址法那样事先申请好。实际上,这一点符合前面学到的链表优于数组的地方。

链表法比起开放寻址法,对大装载因子的容忍度更高。开放寻址法只能适用装载因子小于 1 的情况。接近 1 时,就可能会有大量的散列冲突,导致大量的探测、再散列等,性能会下降很多。但是对于链表法来说,只要散列函数的值随机均匀,即便装载因子变成 10,也就是链表的长度变长了而已,虽然查找效率有所下降,但是比起顺序查找还是快很多。

缺点:
链表因为要存储指针,如果链表存储的对象很小,那么实际上是比较消耗内存的(相对正常存储的小对象,这里还存储了比小对象大的指针,所以说它比较消耗内存)。因为链表中的结点是零散分布在内存中的,不是连续的,所以对 CPU 缓存是不友好的,这方面对于执行效率也有一定的影响。(如果存储的对象远远大于指针消耗的内存,此处可忽略)

实际上如果我们队链表法稍加改造,可以实现一个更加高效的散列表。那就是,我们将链表法中的链表改造为其他高效的动态数据结构,比如跳表、红黑树。这样,即便出现散列冲突,极端情况下,所有的数据都散列到同一个桶内,那最终退化成的散列表的查找时间也不过是 ○(㏒n)。这样就有效避免了前面提到的 散列碰撞攻击

image
基于链表的散列冲突处理方法比较适合存储大对象、大数据量的散列表,而且,比起开放寻址法,它更加灵活,支持更多的优化策略,比如用红黑树代替链表

五、工业级散列表举例分析

来具体看一下 Java 中的 HashMap 这样一个工业级的散列表,是怎么应用上述技术的。

1. 初始大小

HashMap 默认的初始大小是 16,当然这个默认值是可以设置的,如果事先知道大概的数据量有多大,可以通过修改默认初始大小,减少动态扩容的次数,这样会大大提高 HashMap 的性能。

2. 装载因子和动态扩容

最大装载因子默认是 0.75,当 HashMap 中元素个数超过 0.75*capacity(capacity表示散列表的容量)的时候,就会启动扩容,每次扩容都会扩容为原来的两倍大小。

3. 散列冲突解决办法

HashMap 底层采用链表法来解决冲突。所以即使负载因子和散列函数设计的再合理,也免不了会出现拉链过长的情况(就是一个槽里的数据过多),一旦出现拉链过长,则会严重影响 HashMap 的性能。

于是,在 JDK 1.8 中,为了对 HashMap 进一步优化,引入了 红黑树。而当链表长度太长(默认超过 8 )时,链表就转换为红黑树。我们可以利用红黑树快速增删改查的特点,提高 HashMap 的性能。当红黑树结点个数小于 6 个的时候,又会将红黑树转换为 链表。因为在数据量较小的情况下,红黑树要维护平衡,比起链表来,性能上的优势并不明显。

4. 散列函数

散列函数的设计并不复杂,追求的是简单高效、分布均匀。

int hash(Object key){
    int h = key.hashCode();
    //capacity表示散列表的大小,就是元素的个数
    return (h ^ (h >>> 16)) & (capitity - 1);
}

其中,hashCode() 返回的是 Java 对象的 hash code,比如 String 类型的对象的 hashCode() 如下所示:

public int hashCode(){
    int var1 = this.hash;
    if(var1 == 0 && this.value.length > 0){
        char[] var2 = this.value;
        for(int var3 = 0; var3 < this.value.length; ++var3){
            var1 = 31 * var1 + var2[var3];
        }
        
        this.hash = var1;
    }
    
    return var1;
}

六、解答开篇

如何设计一个工业级的散列表?如果一道面试题或者是摆在你面前的实际开发问题,我们应该从哪几个方面思考呢?

首先,何为一个工业级的散列表?工业级的散列表应该具有哪些特性?

如何实现这样一个散列表呢?

上一篇 下一篇

猜你喜欢

热点阅读