linux下spark-shell报错command not f

2021-04-14  本文已影响0人  RichardJuS

[root@xxxsitapp293 bin]# spark-shell \

> --master spark://xx.xx.xx.xx:7080 \

> --executor-memory 500m \

> --total-executor-cores 1

-bash: spark-shell: command not found

错误原因:/etc/profile 未设置spark变量

解决方法:vim /etc/profile  添加 如下内容

export SPARK_HOME=/home/spark/spark-3.0.0-preview2-bin-hadoop3.2

export PATH=$SPARK_HOME/bin:$PATH

最后 source /etc/profile

上一篇下一篇

猜你喜欢

热点阅读