pyspark案例系列6-将Hive表数据写入MySQL

一. 需求

我们做数据仓库的时候,一般是将源系统的数据(如MySQL)抽取到Hive中,然后在Hive中做ETL后,最后将处理完的数据从Hive再抽回到MySQL。

二. 解决方案

数据准备:
Hive端emp表
image.png

MySQL端提前创建好表
image.png

代码:

#!/usr/bin/env python
# -*- coding: utf-8 -*-
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext


# 创建一个连接
spark = SparkSession. \
        Builder(). \
        appName('local'). \
        master('local'). \
        getOrCreate()

spark.sql("use test")
df1 = spark.sql("select * from emp")



df1.write.format("jdbc").options(url="jdbc:mysql://10.31.1.123:3306/test", 
                                 driver="com.mysql.jdbc.Driver", 
                                 dbtable="emp_from_hive", 
                                 user="root", 
                                 password="abc123").mode('append').save()


# 关闭spark会话
spark.stop()

测试记录:
image.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值