程序局部性原理
在复习操作系统时遇到了这样的问题
CPU利用程序局部性原理使得高速指令处理和低速内存访问得以匹配从而提高CPU效率,那么什么是程序局部性原理?
我们先将计算机分为数个层次:
寄存器 64位
一级缓存L1 4×64KB
二级缓存L2 4×256KB
三级缓存L3 8MB
内存 4GB
磁盘 1TB
可以看到这些层次一个比一个更大。
寄存器,既是CPU的工作台,是存放计算数据的地方
CPU要工作了,它需要数据或者地址,从哪里来?先从一级缓存里面找,找不到就从二级缓存里面找,依次类推。假如CPU到磁盘才有,那么这个数据就会存入内存,再存入三级缓存、二级缓存、一级缓存,最后存入寄存器,CPU用它来计算了。
所以说,可以这么看, L1是寄存器的缓存,L2是L1的缓存,依次这样下去,下面一层是上面一层的缓存。
现在来讲局部性原理
CPU的工作要高速,我们希望CPU需要的数据更多的就在L1里面,一找就找着。不希望更多的跑到下面内存乃至磁盘里面去找,这样会花更多的时间。所以当CPU用了一个数据,计算机会遇见性的存入其他等会儿CPU可能会用到的数据到L123内存,用到的可能性越大,就能存到越接近寄存器的层次。这也才是缓存的真正意义。那么,计算机怎样才能判断一个数据接下来可能被用到?
时间局部性:如果一个信息项正在被访问,那么在近期它很可能还会被再次访问。
这当然是正确的,用过的数据当然可能再次被用到。
空间局部性:在最近的将来将用到的信息很可能与现在正在使用的信息在空间地址上是临近的。
正在使用的这个数据地址旁边的数据,当然也是很可能被用到的。比如数组什么的
首先要明白局部性原理能解决的是什么问题,也就是主存容量远远比缓存大,CPU执行程序的时候需要使用内存块,如果该内存块在缓存上,那么处理器直接从缓存上取该内存块就行了,因为缓存的数据传输的速率比内存快的多。因为主存容量大,所以要取的内存块很可能不在缓存上,因此就要把这个内存块移到缓存上。局部性原理就是解决这个问题:
时间局部性:程序有在一段时间内多次访问同一个数据块的倾向,这个写程序的都知道;
空间局部性:程序往往有访问一个聚集空间的数据块的倾向,参见数组的访问;
算法局部性:当程序反复访问分布在整个内存空间的数据块时,就只能看算法局部性。这个很难理解。我的理解是:一般人写的程序还是以顺序和分支执行的为多,一般很少有break、continue和goto指令,算法局部性强调的是程序执行的时候访问数据块一般是顺序访问或者隔一个空间地按序访问,出现访问到这个内存块又跑到隔老远的一个内存块又访问另一个不相关的数据块的概率是非常低的(我只是打个比方。)。当然局部性的算法还是很多的,水也比较深。只是我一点浅薄的认识。【谢谢大家】
那么局部性原理如何解决内存读取到缓存上这个问题呢?
举个例子:空间局部性,我们就可以选择在读取内存块的时候将该内存块附近的内存块也读进缓存中。称为预取(prefetch)