Big Data

Spark监控

2018-09-19  本文已影响12人  盗梦者_56f2

有几种方法来监视Spark应用程序:Web UI,metrics和外部工具。

Web界面

每个SparkContext都会启动一个Web UI,默认端口为4040,显示有关应用程序的有用信息。这包括:

您可以通过在Web浏览器中打开 http://<driver-node>:4040 来访问此界面。 如果多个SparkContexts在同一主机上运行,则它们将绑定到连续的端口从4040(4041,4042等)开始。
请注意,默认情况下此信息仅适用于运行中的应用程序。要在事后还能通过Web UI查看,请在应用程序启动之前,将spark.eventLog.enabled设置为true。 这配置Spark持久存储以记录Spark事件,再通过编码该信息在UI中进行显示。默认情况下,会在 http://<server-url>:18080 创建一个Web 界面 ,显示未完成、完成以及其他尝试的任务信息。

REST API

除了在UI中查看指标外,它们还可以作为JSON使用。这为开发人员提供了一种为Spark创建新的可视化和监视工具的简便方法。JSON既可用于正在运行的应用程序,也可用于历史记录服务器。端点安装在/api/v1。例如,对于历史服务器,它们通常可以在http://<server-url>:18080/api/v1运行的应用程序中访问,也可以在运行的应用程序中访问http://localhost:4040/api/v1

Metrics

Spark具有基于Dropwizard Metrics Library的可配置metrics系统。 这允许用户将Spark metrics报告给各种接收器,包括HTTP,JMX和CSV文件。 metrics系统是通过配置文件进行配置的,Spark配置文件是Spark预计出现在 $SPARK_HOME/conf/metrics.properties上。 可以通过spark.metrics.conf 指定自定义文件位置。
Spark的度量标准分离到与Spark组件对应的不同实例中。在每个实例中,您可以配置一组报告度量标准的接收器。目前支持以下实例:

每个实例都可以向零个或多个接收器报告。org.apache.spark.metrics.sink包装中包含水槽 :

Spark还支持Ganglia接收器,由于许可限制,该接收器未包含在默认构建中:

metrics配置文件的语法在示例配置文件 $SPARK_HOME/conf/metrics.properties.template中定义。

高级工具

可以使用几种外部工具来帮助描述Spark job的性能:

总结的spark 监控的思维导图:

spark监控
上一篇 下一篇

猜你喜欢

热点阅读