Spark通过JDBC操作数据库

Spark应用程序支持通过JDBC方式连接MySQL数据库并且读取或者保存数据。

1. 驱动报错

如果 spark/jars 目录下没有MySQL的连接驱动会报下面错误:
在这里插入图片描述
解决方法:

cp /export/software/mysql-connector-java-8.0.13.jar /export/server/spark/jars    # 将驱动拷贝到spark安装目录
cd /export/server/spark/bin/
./pyspark --jars /export/server/spark/jars/mysql-connector-java-8.0.13.jar --driver-class-path /export/server/spark/jars/mysql-connector-java-8.0.13.jar    # 启动时添加jars和driver参数

2. 从数据库读数据

spark.read.format("jdbc").\
    option("url", "jdbc:mysql://Master:3306/bigdata").\
    option("dbtable", "province_total_sale").\
    option("user", "root").\
    option("password", "root").\
    load()

3. 保存数据到数据库

方式1:

perp = {}
perp["user"]="root"
perp["password"]="root"
province_sale_df.write.jdbc("jdbc:mysql://Master:3306/bigdata?useSSL=false&useUnicode=true&characterEncoding=utf8&createDatabaseIfNotExist=true", "province_total_sale", "overwrite", perp)

方式2:

province_sale_df.write.mode("overwrite").format("jdbc").\
        option("url", "jdbc:mysql://Master:3306/bigdata?useSSL=false&useUnicode=true&characterEncoding=utf8").\
        option("dbtable", "province_total_sale").\
        option("user", "root").\
        option("password", "root").\
        option("encoding", "utf-8").\
        save()

4. 保存到Hive的数据仓库中

province_sale_df.write.mode("overwrite").saveAsTable("default.province_total_sale", "parquet")			# default库的province_total_sale表
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值