Spark-core源码精读玩转大数据@IT·互联网

Spark RPC 到底是个什么鬼?

2017-03-02  本文已影响593人  sun4lower

本文会为大家介绍Spark中的RPC通信机制,详细阐述“Spark RPC到底是个什么鬼?”,闲话少叙,让我们来进入Spark RPC的世界!

Spark RPC三剑客

Spark RPC中最为重要的三个抽象(“三剑客”)为:RpcEnv、RpcEndpoint、RpcEndpointRef,这样做的好处有:

下面我们就结合Netty和“三剑客”来具体分析他们是如何来协同工作的。

Send a message locally

我们通过Spark源码中的一个Test(RpcEnvSuite.scala)来分析一下发送本地消息的具体流程,源码如下(对源码做了一些修改):

  test("send a message locally") {
    @volatile var message: String = null
    val rpcEndpointRef = env.setupEndpoint("send-locally", new RpcEndpoint {
      override val rpcEnv = env

      override def receive = {
        //case msg: String => message = msg
        case msg: String => println(message)  //我们直接将接收到的消息打印出来
      }
    })
    rpcEndpointRef.send("hello")
    //下面是原来的代码
    //eventually(timeout(5 seconds), interval(10 millis)) {
    //  assert("hello" === message)
    //}
  }

为了方便理解,先把流程图贴出来,然后详细进行阐述:

下面我们来详细阐述上例的具体过程:

首先是RpcEndpoint创建并注册的流程:(图中的蓝色线条部分)

下面就是通过RpcEndpointRef向其代表的RpcEndpoint发送消息的具体流程:(图中的红色线条部分)

nettyEnv.send(RequestMessage(nettyEnv.address, this, message))

至此,一个简单的发送本地消息的流程执行完成。

什么,上面的图太复杂了?我也觉得,下面给出一张简洁的图:

我们通过NettyRpcEndpointRef来发出一个消息,消息经过NettyRpcEnv、Dispatcher、Inbox的共同处理最终将消息发送到NettyRpcEndpoint,NettyRpcEndpoint收到消息后进行处理(一般是通过模式匹配的方式进行不同的处理)

如果进一步的进行抽象就得到了我们刚开始所讲的“三剑客”:RpcEnv、RpcEndpoint、RpcEndpointRef

RpcEndpointRef发送消息给RpcEnv,RpcEnv查询注册信息将消息路由到指定的RpcEndpoint,RpcEndpoint接收到消息后进行处理(模式匹配的方式)

RpcEndpoint的声明周期:constructor -> onStart -> receive* -> onStop

其中receive*包括receive和receiveAndReply

本文我们只是通过一个简单的测试程序分析了Spark Rpc底层的实现,集群中的其它通信(比如Master和Woker的通信)的原理和这个测试类似,只不过具体的发送方式有所不同(包括ask、askWithRetry等),而且远程发消息的时候使用了OutBox和NIO等相关的内容,感兴趣的朋友可以对源码进行详细的阅读,本文不一一说明,目的就是通过简单的测试理解大致流程,不再为“Spark Rpc到底是什么”而纠结,一句话总结:Spark Rpc就是Spark中对分布式消息通信系统的高度抽象。

本文参考和拓展阅读:

spark源码

Netty官方网站

Java NIO Tutorial

本文为原创,欢迎转载,转载请注明出处、作者,谢谢!

上一篇下一篇

猜你喜欢

热点阅读