使用Excel、Python、Hive和Spark处理JSON数据

好久时间没更了,最近继续更新起来!本文咱们来看看如何使用Excel、Python、Hive和Spark SQL来处理json格式的数据!满满干货,细细品尝!

先介绍下咱们使用的数据,就来点简单的吧:

{"name":"wenwen","age":"26","sex":"male"}

就三个字段,分别是姓名、年龄、性别。

1、使用Excel处理JSON字符串

Excel中并没有解析JSON数据的函数,只能通过两三个字符串处理函数来实现类似的功能,直接先上一个简单的版本来获取name:

=MID(A1,FIND("name",A1)+LEN("name"":"""),6)

结果如下:

上面的例子中,我们用到了几个excel函数,下面分别来介绍一下:

1)MID(单元格/目标字符串,起始位置,字符个数):MID函数用于截取字符串中的一部分,我们需要指定两个参数,一个是截取的起始位置,另一个是要截取的字符的个数。要想获得指定key的起始位置,我们需要下面的函数find

2)find(指定字符串,单元格/目标字符串):find函数用于获取指定字符串在给定单元格的内容中的位置

3)len(单元格/目标字符串):len函数用于返回目标字符串或单元格内容中的字符串长度

4)json中有双引号,那么我们如何进行转义呢?并不像一般编程语言中使用\来进行转义,这里我们使用两个连续的双引号来表示一个双引号。

好了,了解了上面的几个Excel函数,我们来看看上面的公式吧。主要讲一下如何获得名字起始位置的过程:

FIND("name",A1)+LEN("name"":""")

1) 首先,FIND("name",A1)获取的是name或者说开头的字母n在A1单元格对应的字符串的位置,但这并不是我们想要的位置,需要向后偏移
2)偏移的长度是字符串name":"的长度,可以看到,对于双引号,用了连续的两个双引号进行了转义。

基础知识梳理完毕,但你可能会问两个问题:

1)名字长度不一定是6啊,能不能自适应获取名字的长度?
2)如果是json中最后一个key该怎么办呢?

先来解决第一个问题,我们来自适应获取名字的长度。这里我们就要借助下一个key的位置了:

=MID(A1,FIND("name",A1)+LEN("name"":"""),FIND(""",""age",A1)-(FIND("name",A1)+LEN("name"":""")))

结果如下:

再看第二个问题,当我们要获取的是最后一个Key的内容也就是性别时,我们需要借助}来自适应得到对应的长度:

=MID(A1,FIND("sex",A1)+LEN("sex"":"""),FIND("""}",A1)-(FIND("sex",A1)+LEN("sex"":""")))

结果如下:

好了,Excel就介绍到这里了!本文最难的部分也结束了,下面的内容就相对简单了,一起来学习/复习下!

2、使用Python处理JSON字符串

JSON数据可以类比于Python里面的字典dict,因此使用时首先需要把JSON字符串转换为dict类型,这里使用json.loads方法:

import json

json_str = '{"name":"wenwen","age":"26","sex":"male"}'

dict_obj = json.loads(json_str)

print(type(dict_obj))
print(dict_obj['name'])
print(dict_obj['sex'])

另一个方法是json.load,与loads方法不同的是,load方法传入的是文件对象,而loads方法传入的是字符串:

f = open("data/json_file.txt",'r')
dict_obj = json.load(f)

print(dict_obj['name'])
print(dict_obj['sex'])

那么,字典如何转换成json串呢,这里使用的是dumps方法:

dict_obj = {"name":"wenwen","age":"26","sex":"male"}
json_str = json.dumps(dict_obj)
print(json_str) # {"name":"wenwen","age":"26","sex":"male"}

同样,如果想直接写入文件,使用dump方法即可:

dict_obj = {"name":"wenwen","age":"26","sex":"male"}
f = open("data/json_file2.txt",'w')
json.dump(dict_obj,f)

3、使用Hive处理JSON字符串

我们先用spark写点数据进去:

import spark.implicits._

val seqData = Seq(
  (1,"{\"name\":\"wenwen\",\"age\":\"26\",\"sex\":\"male\"}")
)
val seq2df = seqData.toDF("id","userinfo")
seq2df.write.saveAsTable("default.userinfo")

用hive处理json字符串使用get_json_object和json_tuple方法。先来看一下get_json_object方法:

select 
  id,
  get_json_object(userinfo,'$.name') as name,
  get_json_object(userinfo,'$.sex') as sex
from 
  default.userinfo;

结果如下:

如果指定的字段不存在,则会返回null:

使用get_json_object方法只能获取其中一个字段的值,那么要想获取多个字段的值,可以使用json_tuple方法:

select json_tuple(userinfo,'name','age') from default.userinfo;

此时返回结果:

再试一次:

select id,json_tuple(userinfo,'name','age','sex') from default.userinfo;

咦,好想报错了:

哈哈,下面才是正确的打开方式:

select id,b.name,b.age,b.sex
from default.userinfo
lateral view json_tuple(userinfo,'name','age','sex') b as name,age,sex;

此时结果正常:

最后再提一句,使用 get_json_object获取时,字段要使用'$.name',而使用json_tuple时,直接用name即可。

4、使用Spark SQL处理JSON字符串

最后看看spark吧,当然,我们可以直接写sql:

 val df = spark.sql(
      """
        |select id,b.name,b.age,b.sex
        |from
        | default.userinfo
        | lateral view json_tuple(userinfo,'name','age','sex') b as name,age,sex
      """.stripMargin)

如果不写sql,使用spark sql提供的function的话,写法如下:

import spark.implicits._

    val seqData = Seq(
      (1,"{\"name\":\"wenwen\",\"age\":\"26\",\"sex\":\"male\"}")
    )

    val seq2df = seqData
      .toDF("id","userinfo")
      .withColumn("name",json_tuple($"userinfo","name"))
      .withColumn("age",get_json_object($"userinfo","$.age"))
      .select(json_tuple($"userinfo","name","sex").as(Seq("name1","sex")),col("id"),col("userinfo"))

输出如下:

可以看到,和hive的写法基本是一致的。当使用json_tuple方法时,如果只有一列,那么可以直接使用withColumn方法,如果两列及以上时,则可以尝试最后一行的写法,在select中获取。

好了,本文的内容就到这里了,使用四种数分工具处理json数据,你学会了么?

参考文献

1、https://www.jianshu.com/p/9213cdd4adb3
2、https://blog.csdn.net/weixin_37139561/article/details/90415619

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 使用Excel可以打开JSON文件,但是需要手动进行数据清洗和转换,不适合处理大量的JSON数据Python可以使用json库来读取和处理JSON数据,可以进行数据清洗、转换、筛选等操作。同时,Python还可以使用pandas库来进行数据分析和可视化。 Hive可以使用JSON SerDe来读取和处理JSON数据,可以进行数据清洗、转换、筛选等操作。同时,Hive还可以使用HQL语言进行数据分析和查询。 Spark可以使用Spark SQL来读取和处理JSON数据,可以进行数据清洗、转换、筛选等操作。同时,Spark还可以使用Spark MLlib来进行数据分析和机器学习。 ### 回答2: 在现如今大数据时代,我们面临着大量的数据存储和处理问题。而其中处理JSON数据就是我们最常见的需求之一。为此,我们现在可以使用几种不同的工具进行JSON数据处理。其中,最流行的四种工具包括ExcelPythonHiveSpark。 首先,“Excel”是一种非常经典的电子表格软件,对于JSON数据处理也可以相当的有用。用户可以选择将JSON数据转换成CSV格式或者Excel的标准格式,然后使用Excel进行数据处理。这种方式的优点在于易于上手,而且操作简单。但是,对于大规模数据处理Excel的速度会变慢。 其次,“Python”是一种高级编程语言,经常用于大数据处理和分析。Python实现JSON数据处理可以使用多种库如json库、pandas库和numpy库等。这样可以将JSON数据转换为Python可操控的数据结构,然后进行后续的数据处理和分析。Python对于JSON数据处理的效率很高,可以应对大规模数据处理。 然后,“Hive”是一个基于Hadoop的数据仓库工具。它是一种开源的分布式数据存储和处理解决方案,可以用来管理大规模数据Hive的强项是可伸缩性和性能。它可以在大规模数据中进行JSON文件的逐行处理,实现数据挖掘和分析。 最后,“Spark”是一个Apache基金会的大数据计算框架。它基于内存运行,强调处理大规模数据的速度和效率。Spark的优点在于它可以通过多种语言如Python、Java和Scala进行数据处理,同时它也提供了丰富的API和工具库。使用Spark可以将JSON数据进行处理,支持复杂的分析和计算。 总之,以上四种工具都可以用来处理JSON数据,并且都有各自的优缺点。用户可以根据需求和要求选择合适的工具。对于大规模数据处理,需要使用高效的工具如PythonHiveSpark等。如果数据量不大,Excel亦可胜任。 ### 回答3: 在现今的大数据时代,处理Json数据是非常常见的任务,而ExcelPythonHive以及Spark都是处理Json数据的常见工具。 Excel是众所周知的数据分析软件,它可以读取Json格式的数据并进行分析。可以通过Excel中的“数据”选项卡,在“来自文本/ CSV”、“来自网页”、“来自其他来源”三个选项中选择“来自文本/ CSV”,导入Json文件,然后对数据进行排序、筛选、图表制作等操作。 Python是专业的编程语言,在对Json数据处理方面拥有非常强大的能力。Python可以使用Json模块进行读取、解析、转换和序列化Json数据,还可以使用第三方库如pandas、numpy、matplotlib等进一步进行数据处理和可视化。 Hive是一个数据仓库工具,可以对半结构化和非结构化数据进行复杂的ETL操作。Hive支持处理Json格式的数据,可以使用通用的语句如SELECT、INSERT等进行查询和操作。对于较大的Json文件,可以使用Hive的分区技术进行数据分区,从而提高查询效率。 Spark是目前最火的大数据处理框架,支持快速、高效的处理Json数据Spark提供了Json格式文件的读写API,同时还提供了专门用于处理Json数据函数库。Spark的强大并行处理能力可以让用户处理海量的Json数据,并在分布式环境下快速进行计算和分析。 总之,ExcelPythonHiveSpark都是常见的处理Json数据的工具,各有其优势。用户可以根据不同的需求和数据规模,选择不同的工具进行处理

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值