利用jupyter notebook 运行pyspark读取or

2019-04-11  本文已影响0人  Jasmine晴天和我
from pyspark import SparkContext, SparkConf
from pyspark.sql import SQLContext
import numpy as np
import pandas as pd 
conf = SparkConf()
conf.setAppName("appname")
conf.set("spark.jars","E:\\ojdbc6.jar") #开始没有配置这个,一直报错。
conf.setMaster("local[1]")
sc = SparkContext(conf=conf)
sqlContext = SQLContext(sc)
empDF = spark.read \
    .format("jdbc") \
    .option("url", "jdbc:oracle:thin:@//hostname:portnumber/SID") \
    .option("dbtable", "hr.emp") \
    .option("user", "db_user_name") \
    .option("password", "password") \
    .option("driver", "oracle.jdbc.driver.OracleDriver") \
    .load()

后来设置conf.set("spark.jars","E:\ojdbc6.jar") 这句话时,一开始用的E:/ojdbc.jar,然后报错,后来竟然把/改成\就行了,,,不知道这是怎么回事,是java的问题还是spark的问题,之前我用jupyter都是用/的,,大神指点。

上一篇 下一篇

猜你喜欢

热点阅读