使用spark读取hive中数据,计算后将结果写入mysql,报错如下:
猜想可能是驱动包版本不兼容所致。
经检查,mysql数据库是8.0.12版本,而项目使用的驱动包是5.1.27版本。
<mysql.version>8.1.27</mysql.version>
修改pom文件中mysql驱动版本
<mysql.version>8.0.12</mysql.version>
打包执行,仍报之前的错误。
将$SPARK_HOME/jars/目录下mysql-connector-java-5.1.27.jar删除,上传mysql-connector-java-8.0.12.jar,解决问题。
spark向mysql中写数据,报错不能连接mysql
最新推荐文章于 2024-04-14 00:48:42 发布