Spark连接JDBC数据源

在实际的项目环境中,成熟的技术体系对关系型数据库的依赖远远超过hdfs,而且对大数据运算的结果,实践中也倾向于保存到数据库中,以便进行多种方式的可视化。所以本次实践主要完成spark从mysql中读取和写入数据。一般这个操作有两种方式,一种是自己建立jdbc连接,像一般数据库操作一样的写法,一种就是利用spark自带的jdbc操作函数。

首先要把mysql jdbc connector的jar包上传到集群中每台机器的spark/jars目录,这是一个讨巧的办法,因为spark运行之前一定把这里面所有的jar都加到CALSS_PATH里面去了。

通过spark.read.jdbc读取出来的返回值是DataFrame,如下代码所示。`

val rfidCardMap = spark.read.jdbc(mysqlHelper.DB_URL_R,"t_rfid_card",Array("org_id="+ ORG_ID), mysqlHelper.PROPERTIES).map(row => {
  (row.getAs[String]("card_id"), row.getAs[String]("card_label"))
}).rdd.collect() toMap`

此函数需要传入参数依次为:数据库连接url,表名,过滤条件表达式列表,带有用户名密码信息的属性对象。读取了数据之后,形成一个(String,String)对象返回。这里有两个要注意的:

  1. getAs的类型必须和数据库中列的类型严格匹配
  2. 返回元组类型的对象比返回自定义类的对象写法要轻松一些。如果是返回自定义类的对象,编译会出错,一般说法是语句之前加入import spark.implicits._会有效,但未必见得。尚待进一步探索。

如下是一个比较复杂的解析处理代码示例。`

val teamWeightMapRDD = dfMedicalWaste.map(row => {
  (rfidCardMap.get(row.getAs[String]("team_id")) toString,
  sdf.format(new Date(row.getAs[Timestamp]("rec_ts").getTime)) toInt,
  row.getAs[Double]("mw_weight"))
}).rdd.cache()`

这里sdf就是java里面常用的SimpleDateFormat,它把一个时间戳字段转化成了6个长度的整型。

处理完成后,将结果回写数据库时采用的是本地jdbc连接写法,这块内容很普通了。

这次实践有个特别清晰的理解就是scala的类型推断,由于要统计某个地点一段时间之内的产量总和、平均产量、最大和最小单位时间产量,使用到了DoubleRDDFunctions,代码如下:`

val weightArrayRDD = teamWeightMapRDD.filter(teamWeight => {
  teamWeight._1 == teamName && teamWeight._2 >= week._1 && teamWeight._2 < week._2
}).map(teamWeight => {
  (teamWeight._2, teamWeight._3)
}).reduceByKey((a, b) =>
  a + b
).map(item => {
  item._2
}).cache()`

使用的时候如下:`

line.append(weightArrayRDD sum).append("\t")
line.append(weightArrayRDD mean).append("\t")
line.append(weightArrayRDD max).append("\t")
line.append(weightArrayRDD min).append("\t")`

scala会根据返回值类型进行类型推断,从而匹配可以使用的函数,同样是RDD或者DataFram,包含的类型不同,可以使用的函数也不同,这一切都是透明的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值