spark jdbc 数据库操作

使用spark向数据库执行写入操作

本文基于pyspark模块,实现将某个查询结果集插入远程数据库中。脚本语言:python

1.获取结果集

连接spark,使用spark查询到的结果集是一个DataFrame

select_sql = "select id,count(*) from tableA group by id"
df = spark.sql(select_sql) 

2.将结果集写入远程数据库

append模式或overwrite模式
append模式:原来的数据保留,向后插入新数据
overwrite模式:删除原来的数据,插入新数据

# WriteMode 根据实际情况,一般可选择append模式或overwrite模式
# driver用于连接到该URL的JDBC驱动程序
# url 要连接的JDBC URL
# dbtable 要写入的表
# user 远程数据库用户名
# password 远程数据库密码

 df.write.mode(WriteMode).format("jdbc") \
            			 .option("driver" ,"com.microsoft.sqlserver.jdbc.SQLServerDriver") \
            			 .option("url", dbConnStr) \
            			 .option("dbtable", TargetTable) \
                         .option("user", dbUser) \
                         .option("password", dbPass) \
                         .save()

写入完成。

与sqoop传输方式对比

楼主认为spark jdbc写入方式与sqoop export方式相比,spark jdbc方式具有更好的灵活性。
如:sqoop export方式只能选择传输哪些字段;而spark jdb方式可以灵活加入条件限制语句,选择符合条件的前100行,前200行,所有行…

传输效率

楼主实测,百万级以上数据传输效率更高
测试传输:3万数据,耗时12s
10万数据,耗时3min
1000万数据,耗时12min

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark可以通过使用SparkSession和相关的API来操作数据库。在读取数据时,可以使用`spark.read.format("jdbc")`方法来指定数据源为jdbc,并通过`.option()`方法设置相关的连接参数,如URL、驱动程序、表名、用户名和密码等。例如,以下是使用SparkSession读取MySQL数据库中的student表的代码示例: ```scala import org.apache.spark.sql.SparkSession object SparkSQLTestJDBC { def main(args: Array\[String\]): Unit = { // 创建SparkSession val spark = SparkSession.builder().master("local").appName("sparkSQLTest").getOrCreate() // 读取数据 val studentDF = spark.read.format("jdbc") .option("url", "jdbc:mysql://10.10.10.10:3306/dbName?serverTimezone=GMT") // IP和数据库名 .option("driver", "com.mysql.jdbc.Driver") .option("dbtable", "student") // 表名 .option("user", "root") // 用户名 .option("password", "123456") // 密码 .load() // 显示数据 studentDF.show() // 停止SparkSession spark.stop() } } ``` 在写入数据时,可以使用`DataFrame.write.format("jdbc")`方法来指定写入的数据源为jdbc,并通过`.option()`方法设置相关的连接参数和写入模式等。具体的代码示例可以根据具体的需求进行编写。 需要注意的是,Spark 2.0之后的版本可以直接使用SparkSession替代SQLContext进行数据库操作,但为了向下兼容,SQLContext仍然保留。因此,可以根据具体的需求选择使用SparkSession或SQLContext来操作数据库。\[1\]\[2\]\[3\] #### 引用[.reference_title] - *1* [spark学习8.1:sparkSQL的数据库操作](https://blog.csdn.net/hzp666/article/details/122324639)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Spark数据库操作初步——Spark开发学习笔记(三)](https://blog.csdn.net/weixin_44195757/article/details/103294126)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值