我在Windows7上使用ApacheSparkPypark(spark-1.5.2-bin-hadoop2.6)。在
当我在pyspark中运行python脚本时,总是会遇到这个错误。在
调用o23.load时出错。java.sql.sql异常:找不到合适的驱动程序jdbc:甲骨文:精简:---------------------------连接在
这是我的python文件import os
os.environ["SPARK_HOME"] = "C:\\spark-1.5.2-bin-hadoop2.6"
os.environ["SPARK_CLASSPATH"] = "L:\\Pyspark_Snow\\ojdbc6.jar"
from pyspark import SparkContext, SparkConf
from pyspark.sql import SQLContext
spark_config = SparkConf().setMaster("local[8]")
sc = SparkContext(conf=spark_config)
sqlContext = SQLContext(sc)
df = (sqlContext
.load(source="jdbc",
url="jdbc:oracle:thin://x.x.x.x/xdb?user=xxxxx&password=xxxx",
dbtable="x.users")
)
sc.stop()