spark setting up dynamic alloca

2019-06-05  本文已影响0人  oo_思维天空

什么是spark 的dynamic allocate

什么场景下使用spark 的dynamic allocate

开启spark dynamic allocate 步骤设置

1. 设置环境变量

$ export HADOOP_CONF_DIR=/hadoop/hadoop-2.7XX/etc/hadoop
$ export HADOOP_HOME=/hadoop/hadoop-2.7XX
$ export SPARK_HOME=/hadoop/spark-2.4.0-bin-hadoop2.7
$ hds=(`cat ${HADOOP_CONF_DIR}/slaves` 'namenode1' 'namenode2') 
# 配置hadoop cluster 的所有机器的host 
# remeber to unset hds at the end

2. yarn文件配置

3. spark 配置

refrence

ppt
config

上一篇 下一篇

猜你喜欢

热点阅读