windows下pyspark连接mysql报错:java.lang.ClassNotFoundException: com.mysql.jdbc.Driver
-
: java.lang.ClassNotFoundException: com.mysql.jdbc.Driver
-
2021年4月12日23:09:37
pyspark中sparksql连接mysql 报错
: java.lang.ClassNotFoundException: com.mysql.jdbc.Driver
at java.net.URLClassLoader.findClass(URLClassLoader.java:382)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
at org.apache.spark.sql.execution.datasources.jdbc.DriverRegistry$.register(DriverRegistry.scala:45)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$5.apply(JDBCOptions.scala:99)
at org.apache.spark.sql.execution.datasources.jdbc.JDBCOptions$$anonfun$5.apply(JDBCOptions.scala:99)
-
原因:缺少mysql驱动包
-
解决办法:
方式1:anaconda部署的python环境
jar包下载链接:mysql-connector-java
# 将准备好的mysql-connector-java-5.1.27.jar 放在Anconda相对应目录下 D:\bigdata_tool\anaconda\Lib\site-packages\pyspark\jars # 注意不要 放错目录了,在anaconda\Lib 下面 不在anaconda\pkgs下面 # 如果虚拟环境 可以在 anaconda\envs\py37\Lib\site-packages 下面找到pyspark目录
方式2:如果启动的是本地spark
在spark安装目录下将mysql-connector-java-5.1.27-bin.jar放在jars目录里