Spark集群搭建步骤
2017-12-01 本文已影响0人
windskymr
1、将Spark安装包上传到某一台节点上
2、解压
3、修改安装包的名称 mv
4、进入安装包的conf下
1、将slaves.template->slaves
2、修改slaves这个配置文件的 内容
将从节点的ip或者hostname添加到这个文件中,每一个ip或者hostname是一行
3、将spark-env.sh.template->spark-env.sh
4、在spark-env.sh配置文件中添加一下几个环境变量
export SPARK_MASTER_IP=hadoop1(hadoop1就是master节点)
export SPARK_MASTER_PORT=7077(提交Application的端口)
export SPARK_WORKER_MEMORY=2g(每一个Worker节点管理2G内存,不是指每一个Worker进程使用2G内存)
export SPARK_WORKER_CORES=3(每一个Worker节点管理3个core,不是指每一个Worker进程使用3个core)
5、将安装包同步到其他的节点上
6、进入hadoop1节点的安装包的sbin下,执行start-all.sh脚本 来启动Spark集群
7、使用浏览器打开hadoop1:8080页面查看Spark集群的运行情况
8、提交Application的命令是:
spark-submit --master spark://hadoop1:7077 --class mainClass jarPath
Spark架构

