Spark深入学习Spark在简书Hadoop

Spark Task 的执行流程① - 分配 tasks 给 e

2016-11-30  本文已影响1141人  牛肉圆粉不加葱

本文为 Spark 2.0 版本的源码分析,其他版本可能会有所不同

TaskScheduler 作为资源调度器的一个重要职责就在:

等时机把处于等待状态的 tasks 分配给有空闲资源的 executors,那么这个 “把 task 分配给 executor” 的过程具体是怎样的呢?这就是本文要探讨的内容,将通过以下四小节来进行剖析:

  1. 打散可用的 executors
  2. 对所有处于等待状态的 taskSet 进行排序
  3. 根据是否有新增的 executor 来决定是否更新各个 taskSet 的可用本地性集合
  4. 结合 taskSets 的排序及本地性集合将 tasks 分配给 executors

打散可用的 executors

“把 task 分配给 executor” 这一过程是在函数 TaskSchedulerImpl#resourceOffers(offers: Seq[WorkerOffer]): Seq[Seq[TaskDescription]] 中完成的:

TaskSchedulerImpl#resourceOffers 第一阶段做的事可用下图表示:

在该函数每次被调用之时,通过随机的方式打乱所有 workerOffers(一个 workerOffer 对应一个active executor),之后会根据这打乱后的顺序给 executor 分配 task,这样做就能避免只将 tasks 分配给少数几个 executors 从而达到使集群各节点压力平均的目的。

除了打散 workerOffers,还为每个 workerOffer 创建了一个可变的 TaskDescription 数组从而组成了一个二维数组 tasks,用于保存之后的操作中分配给各个 executor 的 tasks。

对所有处于等待状态的 taskSet 进行排序

排序的目的是为了让优先级更高的 taskSet 所包含的 task 更优先的被调度执行,所执行的操作是:

val sortedTaskSets: ArrayBuffer[TaskSetManager] = rootPool.getSortedTaskSetQueue

其中,sortedTaskSets 是排序后得到的 TaskSetManager 数组,下标越小表示优先级越高,也就越优先被调度。而 rootPoolPool 类型,它是 Standalone 模式下的对列,支持两种调度模式,分别是:

更具体的分析,请移步Pool-Standalone模式下的队列,这篇文章对两种调度方式以及如何排序做做了十分详细的说明

根据是否有新增的 executor 来决定是否更新各个 taskSet 的可用本地性集合

关于更新 taskSet 的可用本地性集合,这里值进行简单说明,更多内容请移步 Spark的位置优先: TaskSetManager 的有效 Locality Levels

这个可用本地性集合会在后面的将 task 分配给 executor 起关键作用

结合 taskSets 的排序及本地性集合将 tasks 分配给 executors

这一步的实现代码如下:

for (taskSet <- sortedTaskSets; maxLocality <- taskSet.myLocalityLevels) {
  do {
    launchedTask = resourceOfferSingleTaskSet(
        taskSet, maxLocality, shuffledOffers, availableCpus, tasks)
  } while (launchedTask)
}

含义是根据 sortedTaskSets 的顺序依次遍历其每一个 taskSetManager,
从该 taskSetManager 的本地性从高到低依次调用 TaskSchedulerImpl#resourceOfferSingleTaskSet,流程如下图:


以上,就完成了分配 tasks 给 executors 的流程分析,细节比较多,涉及的知识点也比较多,需要扩展阅读文中给出的另几个文章,最后给出一个整体的流程图方便理解


欢迎关注我的微信公众号:FunnyBigData

FunnyBigData
上一篇 下一篇

猜你喜欢

热点阅读