20| 散列表+链表实现LRU算法

2020-04-27  本文已影响0人  b335eb9201c3

LRU 缓存淘汰算法
我们需要维护一个按照访问时间从大到小有序排列的链表结构。因为缓存大小有限,当缓存空间不够,需要淘汰一个数据的时候,我们就直接将链表头部的结点
删除。
当要缓存某个数据的时候,先在链表中查找这个数据。如果没有找到,则直接将数据放到链表的尾部;如果找到了,我们就把它移动到链表的尾部。因为查找数
据需要遍历链表,所以单纯用链表实现的 LRU 缓存淘汰算法的时间复杂很高,是 O(n) 。
实际上,我总结一下,一个缓存( cache )系统主要包含下面这几个操作:
往缓存中添加一个数据;
从缓存中删除一个数据;
在缓存中查找一个数据。
这三个操作都要涉及 “ 查找 ” 操作,如果单纯地采用链表的话,时间复杂度只能是 O(n) 。如果我们将散列表和链表两种数据结构组合使用,可以将这三个操作的时间
复杂度都降低到 O(1) 。具体的结构就是下面这个样子:

image.png
我们使用双向链表存储数据,链表中的每个结点处理存储数据( data )、前驱指针( prev )、后继指针( next )之外,还新增了一个特殊的字段 hnext 。这个 hnext 有
什么作用呢?
因为我们的散列表是通过链表法解决散列冲突的,所以每个结点会在两条链中。一个链是刚刚我们提到的双向链表,另一个链是散列表中的拉链。前驱和后继指
针是为了将结点串在双向链表中,hnext指针是为了将结点串在散列表的拉链中。
了解了这个散列表和双向链表的组合存储结构之后,我们再来看,前面讲到的缓存的三个操作,是如何做到时间复杂度是 O(1) 的?
首先,我们来看如何查找一个数据。我们前面讲过,散列表中查找数据的时间复杂度接近O(1),所以通过散列表,我们可以很快地在缓存中找到一个数据。当找
到数据之后,我们还需要将它移动到双向链表的尾部。
其次,我们来看如何删除一个数据。我们需要找到数据所在的结点,然后将结点删除。借助散列表,我们可以在O(1)时间复杂度里找到要删除的结点。因为我们
的链表是双向链表,双向链表可以通过前驱指针 O(1) 时间复杂度获取前驱结点,所以在双向链表中,删除结点只需要 O(1) 的时间复杂度。
最后,我们来看如何添加一个数据。添加数据到缓存稍微有点麻烦,我们需要先看这个数据是否已经在缓存中。如果已经在其中,需要将其移动到双向链表的尾
部;如果不在其中,还要看缓存有没有满。如果满了,则将双向链表头部的结点删除,然后再将数据放到链表的尾部;如果没有满,就直接将数据放到链表的尾
部。
这整个过程涉及的查找操作都可以通过散列表来完成。其他的操作,比如删除头结点、链表尾部插入数据等,都可以在 O(1) 的时间复杂度内完成。所以,这三个
操作的时间复杂度都是 O(1) 。至此,我们就通过散列表和双向链表的组合使用,实现了一个高效的、支持 LRU 缓存淘汰算法的缓存系统原型。
2.使用跳表也能实现LRU,跳表见上篇博客:15|跳表
3.Java LinkedHashMap
前面我们讲了两个散列表和链表结合的例子,现在我们再来看另外一个, Java 中的 LinkedHashMap 这种容器。
如果你熟悉 Java ,那你几乎天天会用到这个容器。我们之前讲过, HashMap 底层是通过散列表这种数据结构实现的。而 LinkedHashMap 前面比 HashMap 多了一
个 “Linked” ,这里的 “Linked” 是不是说, LinkedHashMap 是一个通过链表法解决散列冲突的散列表呢?
实际上, LinkedHashMap 并没有这么简单,其中的 “Linked” 也并不仅仅代表它是通过链表法解决散列冲突的。关于这一点,在我是初学者的时候,也误解了很久。
我们先来看一段代码。你觉得这段代码会以什么样的顺序打印 3 , 1 , 5 , 2 这几个 key 呢?原因又是什么呢?
HashMap<Integer, Integer> m = new LinkedHashMap<>();
m.put(3, 11);
m.put(1, 12);
m.put(5, 23);
m.put(2, 22);
for (Map.Entry e : m.entrySet()) {
System.out.println(e.getKey());
}
我先告诉你答案,上面的代码会按照数据插入的顺序依次来打印,也就是说,打印的顺序就是 3 , 1 , 5 , 2 。你有没有觉得奇怪?散列表中数据是经过散列函数打
乱之后无规律存储的,这里是如何实现按照数据的插入顺序来遍历打印的呢?
你可能已经猜到了, LinkedHashMap 也是通过散列表和链表组合在一起实现的。实际上,它不仅支持按照插入顺序遍历数据,还支持按照访问顺序来遍历数据。你
可以看下面这段代码:
// 10是初始大小,0.75是装载因子,true是表示按照访问时间排序
HashMap<Integer, Integer> m = new LinkedHashMap<>(10, 0.75f, true);
m.put(3, 11);
m.put(1, 12);
m.put(5, 23);
m.put(2, 22);
m.put(3, 26);
m.get(5);
for (Map.Entry e : m.entrySet()) {
System.out.println(e.getKey());
}
这段代码打印的结果是 1 , 2 , 3 , 5 。我来具体分析一下,为什么这段代码会按照这样顺序来打印。
每次调用 put() 函数,往 LinkedHashMap 中添加数据的时候,都会将数据添加到链表的尾部,所以,在前四个操作完成之后,链表中的数据是下面这样: image.png
在第 8 行代码中,再次将键值为 3 的数据放入到 LinkedHashMap 的时候,会先查找这个键值是否已经有了,然后,再将已经存在的 (3,11) 删除,并且将新的 (3,26) 放到
链表的尾部。所以,这个时候链表中的数据就是下面这样: image.png
当第 9 行代码访问到 key 为 5 的数据的时候,我们将被访问到的数据移动到链表的尾部。所以,第 9 行代码之后,链表中的数据是下面这样: image.png
所以,最后打印出来的数据是 1 , 2 , 3 , 5 。从上面的分析,你有没有发现,按照访问时间排序的 LinkedHashMap 本身就是一个支持 LRU 缓存淘汰策略的缓存系统?
实际上,它们两个的实现原理也是一模一样的。我也就不再啰嗦了。
我现在来总结一下,实际上,LinkedHashMap是通过双向链表和散列表这两种数据结构组合实现的。LinkedHashMap中的“Linked”实际上是指的是双向链表,并
非指用链表法解决散列冲突。
LinkedHashMap代码实现参考博客:https://www.cnblogs.com/mengheng/p/3683137.html
上一篇下一篇

猜你喜欢

热点阅读