Spark——Spark Dataframe转成HashMap

问题背景

现在有一个json串"{‘address’:[[‘33’,‘3301’,‘330108’],‘xx路xx号’]}", 需要把address解析出来之后, 将行政区划编码替换为对应的省市区县, 最后输出这样的格式(“浙江省杭州市滨江区xx路xx号”).

开发给到的行政区划表(area)的结构如下图:
在这里插入图片描述
因为行政区划表在解析json的时候, 很多地方都会用到, 并且行政区划表本身记录数比较少, 占用的内存空间较小, 就考虑将行政区划编码和对应的省市区县放到一个HashMap中, 查询效率也会比较高.

有的同学可能会问, 为什么不用join? 如果用join关联, 在查省、市、区县时,要么是先过滤出三个Dataframe,分别代表省、市、区县,然后再分别join,要么就是不区分,关联整个行政区划表3次。这样一来,不仅比较麻烦,效率也不高。

 

具体实现

代码实现:

import scala.collection.mutable

val hashMap = spark.read.table("ods.area") //行政区划表
	.select("area_code", "area_name") //只查询需要的字段(行政区划编码、省市区县名称)
	.rdd //Dataframe转化为RDD
	//RDD中每一行转化成area_code和area_name映射的key-value
	.map(row => row.getAs("area_code").toString -> row.getAs("area_name").toString) 
	.collectAsMap() //将key-value对类型的RDD转化成Map
	.asInstanceOf[mutable.HashMap[String, String]]
  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值