Spark-core:执行Spark任务的两个工具:spark-

2020-05-17  本文已影响0人  Movle
1.spark-submit:用于提交Spark任务

(1)举例:spark 自带的实例程序。
/opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars中有Spark自带的实例程序。

蒙特卡洛求PI(圆周率)

cd /opt/module/spark-2.1.0-bin-hadoop2.7

bin/spark-submit --master spark://hadoop1:7077 --class org.apache.spark.examples.SparkPi /opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 500
启动命令 执行结果
2.Spark-shell

(1)概念:相当于REPL工具,命令行工具,作为一个独立的Application运行

(2)两种运行模式:
(a)本地模式:不需要连接到Spark集群,在本地直接运行,用于测试

启动:

//后面不写任何参数,代表本地模式
bin/spark-shell  
本地模式

local代表本地模式

(b)集群模式
命令:

bin/spark-shell --master spark://hadoop1:7077
集群模式

特殊说明:

上一篇 下一篇

猜你喜欢

热点阅读