pyspark采用jdbc读取数据库的注意点
前言
本文记录了本人在使用pyspark的jdbc方式读写各类数据库时遇到的错误和处理方式
环境
pyspark:3.0.1
本地部署的spark版本:3.0.0
问题与处理方法
Caused by: java.lang.ClassNotFoundException: com.kingbase.Driver
日志显示,jdbc驱动类找不到,且即便是在python执行的参数后面增加 --driver-class-path 参数指定驱动类的jar包也不起作用
处理方式
方式一:将驱动jar包放到本地部署的spark路径下的jars和bin文件夹下(亲测可用)
方式二:python运行参数后面增加 --jars 指定jar包路径(他人提供的方法,未测试)