Spark连接JDBC

项目之前用cloudera manager配好了spark on yarn集群,要求连接JDBC,markdown一下

既然是要jdbc连接mysql,必然少不了jar包,下载好jar包:mysql-connector-java-5.1.41-bin.jar

位置随大家喜欢,我放到了spark下的lib路径:/opt/cloudera/parcels/CDH-5.12.1-1.cdh5.12.1.p0.3/lib/spark/lib/mysql-connector-java-5.1.41-bin.jar(记好jar包的路径)

首先,打开pyspark,尝试连接mysql数据库,因为JDBC没有配置好,所以找不到class

OK,接下来去到spark的环境配置文件 (路径看自己的机器):

Eg:/opt/cloudera/parcels/CDH-5.12.1-1.cdh5.12.1.p0.3/lib/spark/conf/spark-defaults.conf

或者是 /etc/spark/conf/spark-defaults.conf

关键是要配置spark-defaults.conf 文件,不要配spark-env.sh

然后,加入之前jar包的路径:

spark.executor.extraClassPath=/opt/cloudera/parcels/CDH-5.12.1-1.cdh5.12.1.p0.3/lib/spark/lib/mysql-connector-java-5.1.41-bin.jar

 

OK!就是这么简单!

进入pyspark,尝试重新连接MySql

 

后期发现一篇好文:https://blog.csdn.net/pengzonglu7292/article/details/79517051

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值