java jdbcrdd,Spark- JdbcRDD以及注意事项

import java.sql.DriverManager

import org.apache.spark.rdd.JdbcRDD

import org.apache.spark.{SparkConf, SparkContext}objectJdbcRDDDemo {

def main(args: Array[String]): Unit={

val conf= new SparkConf().setAppName(this.getClass.getSimpleName).setMaster("local[2]")

val sc= newSparkContext(conf)

val getConn=()=>{

DriverManager.getConnection("jdbc:mysql://localhost:3306/bigdata?characterEncoding=utf-8","root","root")

}//创建RDD,这个RDD会记录以后从MySQL中读取数据

val jdbcRDD: JdbcRDD[(Int, String, Int)] = newJdbcRDD(sc,

getConn,"select * from logs where id >= ? and id <= ?",1,5,2, //分区数量

rs =>{

val id= rs.getInt(1)

val name= rs.getString(2)

val age= rs.getInt(3)

(id, name, age)//将数据库查询出来的数据集转成想要的数据格式

}

)

val rs=jdbcRDD.collect()

print(rs.toBuffer)

}

}

返回查询结果正确

8872263bee8d438cbab31f4622793bda.png

现象

修改查询的SQL,返回的数据量不对。

"select * from logs where id >= ? and id < ?"

21aa19a3a89a4111e59be3b64e4600e9.png

原因

在触发Action的时候,Task在每个分区上的业务逻辑是相同的(id >= ? and id < ?"),只是读取的数据和处理的数据不一样。RDD根据数据量和分区数据,均匀地分配每个分区Task读取数据的范围。

分区1读取[1,2)的数据,分区2读取[3,5)的数据。

使用相同的逻辑分区1丢掉了id=2的数据,这是为什么,id >= 1 and id < 5"只返回3条数据的原因,如果只有一个分区的时候能够读取到正确的数据量。

解决办法

为了避免出现丢数据,读取数据时,区间两端都包含。id >= 1 and id < =5。

Spark- JdbcRDD以及注意事项

标签:def   main   org   unit   array   cte   obj   jdbcrdd   相同

本条技术文章来源于互联网,如果无意侵犯您的权益请点击此处反馈版权投诉

本文系统来源:https://www.cnblogs.com/RzCong/p/10660682.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值