Spark优化与实践

Spark on mesos的坑以及解决办法

2016-07-01  本文已影响99人  breeze_lsw

该文章写于spark1.6.2版本。
由于Fine mode对短任务性能影响过大,所以采用的是Coarse mode方式进行调度。

主要的一些问题:

  1. 1.6版本开始dynamic allocation无法使用

    例如spark-shell之类的程序,空闲时期资源长期占用却无法释放,造成资源利用率低下。

  2. 单个slave上无法启动多个executor

    每个mesos slave上一个application只能启动一个executor。带来的问题是,如果你的slave是<20 cores,100G RAM>,一个需求<20 cores,10G RAM>的application就会将其资源用光,造成90G RAM的浪费。
    具体可参考http://www.jianshu.com/p/27762a1f9b7b

  3. 每个executor使用的cpu数量不可控

    例如某个application申请<5 cores,10G RAM>,如果每个slave只有4 cores,就会造成出现的两个executor,一个是<4 cores,10G RAM>,另一个是<1 core, 10G RAM>。
    因为一个executor运行了过多的task,在内存不足的情况下就非常容易造成OOM,长时间GC等问题。
    具体可参考http://www.jianshu.com/p/27762a1f9b7b

  4. blockmgr没有自动删除
    大量占用磁盘空间

这些问题都在2.0中得到了解决,但是2.0的改动较大,涉及到大量程序的修改,所以就将如下的改进和bugfix都合到了1.6.2上,重新build了一个版本,问题解决。

已有的解决方案:

修复后的集群济源利用率

修改后的集群负载情况(ganglia):


这里写图片描述

修改后的集群负载情况(ganglia):


这里写图片描述
上一篇下一篇

猜你喜欢

热点阅读