spark提交任务笔记

2020-04-28  本文已影响0人  hyxck
./spark-submit
 --class com.hundsun.rdc.bdata.compute.jdbc.TaskCommandRunner
 --master local[2] 
 --deploy-mode client
 --executor-memory 20G 
 --num-executors 30
 --conf "spark.yarn.appMasterEnv.JAVA_HOME=/usr/java/jdk1.8.0_241/"
 --conf "spark.executorEnv.JAVA_HOME=/usr/java/jdk1.8.0_241/"
 --executor-memory 10G --num-executors 8 --executor-cores 4 
 --driver-memory 6g 
 --conf spark.driver.maxResultSize=8G
 --conf spark.yarn.executor.memoryOverhead=2048 
 --conf spark.default.parallelism=1000
 --conf spark.memory.fraction=0.75 
 --conf spark.memory.storageFraction=0.5 
 --files Jdbc2.json ./bdata-compute-spark-jdbc-1.0.jar
 Jdbc2.json

当我们在提交参数的--file是指定我们上传的配置文件,然后 在jar包后面的jdbc.json是指定我们要加载的配置文件,如果是上传了文件,那么就会加载我们这个文件地址作为输入的接口 同时程序入口也会接收这个参数
--master 在远程提交的时候不能指定我们提交的地址,只能写成yarn的方式

上一篇下一篇

猜你喜欢

热点阅读