pyspark(Python环境下搭建spark)出现的问题及解

2018-12-25  本文已影响0人  昵称得改

一、pyspark(Python环境下搭建spark)

1、https://blog.csdn.net/zhongjunlang/article/details/80816711

#    注意一:

下载完解压包之后对解压包进行解压,注意存放的路径一定不能带空格,否则添加环境变量path的时候会找不到路径。

#注意二:

pycharm中运行代码的时候记得添加

#环境变量否则还是会报错:错误如下

Exception in thread "main" java.util.NoSuchElementException: key not found: _PYSPARK_DRIVER_CONN_INFO_PATH

#添加俩个环境变量就ok

os.environ['SPARK_HOME']="G:\spark\spark_2.3.1_bin_hadoop2.7"

sys.path.append("G:\spark\spark_2.3.1_bin_hadoop2.7\python")

#注意三    no module name resource   的错误

这个错误纠结了很久其实是没导入本地资源导致(自己猜想也有可能版本不对)

解决办法(亲测有效)

注意四: 在调用mysql数据库的时候

 java.sql.SQLException: No suitable driver  的错误

解决办法:

https://blog.csdn.net/helloxiaozhe/article/details/81027196

~~~下载mysql-connector-java-5.1.44.jar

下载地址:https://dev.mysql.com/downloads/connector/j/

按照网址操作亲测问题解决

上一篇下一篇

猜你喜欢

热点阅读