spark并发读mysql_spark jdbc分区并发读取 mysql 大表

本文介绍了如何通过Spark的jdbc方法提高从MySQL读取大表的并发度,以解决单线程任务过重导致的任务hang住问题。通过设置分区策略,如根据ID字段进行分区,可以有效避免数据倾斜,提高数据读取和处理速度。同时,要注意分区数量应根据数据库和Spark集群规模适当调整,防止数据源数据库过载。
摘要由CSDN通过智能技术生成

spark的分区从读取数据就开始分区的,合理的分区不仅能避免错误而且能大幅度提高效率。

很多人在spark中使用默认提供的jdbc方法时,在数据库数据较大时经常发现任务 hang 住,其实是单线程任务过重导致,这时候需要提高读取的并发度。 以 mysql 3000W 数据量表为例,单分区count,僵死若干分钟报OOM。分成5-20个分区后,count 操作只需要 2s高并发度可以大幅度提高读取以及处理数据的速度,但是如果设置过高(大量的partition同时读取)也可能会将数据源数据库弄挂。

1.安装mysql-connector jar

方式一:直接将mysql-connector-java-5.1.34.jar分发到所有节点spark的jar中

方式二:在 spark-env.sh 文件中加入:export SPARK_CLASSPATH=/path/mysql-connector-java-5.1.34.jar,任务提交时加入:--jars /path/mysql-connector-java-5.1.34.jar

2.单分区无并发读取mysql数据库val url = "jdbc:mysql://mysqlHost:3306/database"

val tableName = "table"

// 设置连接用户&密码

val prop = new java.util.Properties

prop.setProperty("user","username")

prop.setProperty("password","pwd")

// 取得该表数据

val jdbcDF =

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值