Spark之json数据处理

-- 默认情况下,SparkContext对象在spark-shell启动时用namesc初始化。使用以下命令创建SQLContext。
val sqlcontext = new org.apache.spark.sql.SQLContext(sc)
-- employee.json-将此文件放在currentscala>指针所在的目录中。
{
   {"id" : "1201", "name" : "satish", "age" : "25"}
   {"id" : "1202", "name" : "krishna", "age" : "28"}
   {"id" : "1203", "name" : "amith", "age" : "39"}
   {"id" : "1204", "name" : "javed", "age" : "23"}
   {"id" : "1205", "name" : "prudvi", "age" : "23"}
}
-- 读取JSON文档namedemployee.json。 数据显示为带有字段id,name和age的表。
val dfs = sqlContext.read.json("/root/wangbin/employee.json")
-- 显示数据
dfs.show()
-- 查看数据结构
dfs.printSchema()
-- 查看某一列
dfs.select("name").show()
-- 查找年龄大于23(age> 23)的雇员。
dfs.filter(dfs("age") > 23).show()
-- 计算同一年龄的员工人数。
dfs.groupBy("age").count().show()

 

转载于:https://www.cnblogs.com/wangbin2188/p/8252658.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值