Spark源码[1]-内存管理模型

2019-10-22  本文已影响0人  蠟筆小噺没有烦恼

1 动态内存模型

Spark1.6版本之后,默认使用动态内存。

1.1 堆内内存

在Yarn调度器模式中,内存的基本结构如下,会在NodeManager上申请一个container,也就是一个JVM作为一个Executor,而Executor包含了两部分内存。

一是有spark.yarn.executor.memoryOverHead(注意在2.3版本及之后,使用spark.executor.memoryOverHead)指定的Off-heap内存,如果不指定,则设置其为min(executorMemory*0.1,348MB)作为其大小,一般生产环境我们不会把executor设置小于3.5G,所以,可以认为其实默认最大就是348MB。该部分内存主要用于创建Java Object时的额外开销,Native方法调用,NIO Buffer等开销,该部分是用户代码及spark不可以操作的内存。
需要注意的是,Yarn一定会设置一个container的上限内存,由yarn.scheduler.maximum-allocation-mb来指定,overHead内存+executorMemory不能超过container上限,不然会被Kill。

1.2 Executor内部内存结构

默认情况下,Spark只使用了堆内存,有如下4部分:

Executor申请到的堆内存总和就是上述四种,通过spark.executor.memory或者--executor-memory配置,需要注意的是,JVM堆内存无论什么时候,都会分为年轻代(1/3)和老年代(2/3),而年轻代又分为Eden和S1、S2,比例为8:1:1,而同一时间只能有一个Serviver被使用,所以,有1/30内存不能被算进去。
Execution内存和Storage内存一共默认占总Executor的0.6,该值通过spark.memory.fraction配置。且在SparkUI的Executor标签页上显示的StorageMemory其实是Execution和Storage的总和。
Storage比例通过spark.memory.StorageFraction 进行设置,默认0.5。

1.3 堆外内存

在Spark1.6之后,Spark引入了堆外内存,分为Execution和Storage内存,分配多大就占用多大,不受其他因素影响,与堆内内存一样,它们也可以互相占用

#开启堆外内存并设置大小为10GB
spark.memory.offHeap.enabled    true
spark.memory.offHeap.size   10737418240

1.4 内存动态调整机制

Spark1.6之后的动态内存机制如下:

2 Spark1.6之前的静态内存模型

主要特性是内存之间不能互相借用,存储和执行内存分别占Executor的0.6和0.2。并且每一部分都有一个安全比例阀值,放置内存溢出。存储内存通过spark.storage.safetyFraction设置,默认0.9;执行内存通过spark.shuffle.safetyFraction,默认0.8;Unroll内存在存储内存的安全空间中,通过spark.storage.unrollFraction设置,默认0.2。
展开内存(Unroll)表示将RDD中的数据分区由不连续的存储空间组织为连续的存储空间。
另外,固定内存模式没有300MB的固定用户内存空间


3 补充

在代码中查看对象占用大小:

import org.apache.spark.util.SizeEstimator
val size:Long=SizeEstimator.estimate(map)

如果希望查看RDD大小:将RDDcache,然后看Web页面的Storage子页面。

上一篇 下一篇

猜你喜欢

热点阅读