Spark练习-统计不同性别的年龄总和,统计不同性别不同年龄的年龄平均值

目录

统计不同性别的年龄总和,最大值,最小值,平均值

计算不同性别不同年龄的年龄平均值


统计不同性别的年龄总和,最大值,最小值,平均值

from pyspark import  SparkContext
sc = SparkContext()


# 1- 读取hdfs中的学生数据
rdd = sc.textFile('hdfs://node1:8020/data/student.txt')

# 2- 使用转化算子进行数据处理
# map中的lambda表达式,必须定义一个参数,用来接收rdd中的元素数据, 注意:x参数如何处理,要看x接收的数据类型
rdd2 = rdd.map(lambda x:x.split(','))

# 将转换后的kv进行分组,把分组的字段作为key值
rdd3 = rdd2.map(lambda x:(x[2],x))
# 使用groupbykey方法,按照key进行分组

rdd4 = rdd3.groupByKey()  # ('F', <pyspark.resultiterable.ResultIterable object at 0x7f7fea109760>)
# 需要使用mapvalue转化分组后的数据
rdd5 = rdd4.mapValues(lambda x:list(x))


## todo 统计不同性别的年龄总和 最大值 最小值 平均值
# 将需要计算的数据转为kv结构   分组的字段是key值  聚合数据是value值
rdd6 = rdd2.map(lambda x:(x[2],int(x[3])))

# 使用reduceBykey方式进行聚合计算  会将相同key值的数据先合并,然后在聚合计算
# 聚合计算的算子,lambda x,y 需要结构两个参数
# 计算总和
rdd7 = rdd6.reduceByKey(lambda x,y:x+y)  # 使用有局限性,无法进行平均数  最大值 最小值 数量  总数/数量

# 计算平均值
rdd8 = rdd6.groupByKey().mapValues(lambda x:sum(list(x)) / len(list(x)))

# 计算最大值
rdd9 = rdd6.groupByKey().mapValues(lambda x:max(list(x)))

# 计算最小值
rdd10 = rdd6.groupByKey().mapValues(lambda x:min(list(x)))


# 查看数据


res6 = rdd6.collect()
print(res6)

res7 = rdd7.collect()
print(res7)

res8 = rdd8.collect()
print(res8)

res9 = rdd9.collect()
print(res9)

res10 = rdd10.collect()
print(res10)

计算不同性别不同年龄的年龄平均值

from pyspark import SparkContext
sc = SparkContext()

# 1-读取文件数据
rdd = sc.textFile('hdfs://node1:8020/data/students.txt')

# 2-切割每行数据
rdd_line = rdd.map(lambda x:x.split(','))



#  计算不同性别不同年级的年龄平均值
# 方式一  (x[2],x[4])
rdd_kv2 = rdd_line.map(lambda x : ((x[2],x[4]),int(x[3])))
rdd_res2 = rdd_kv2.groupByKey().mapValues(lambda x : sum(list(x)) / len(list(x)))


# 方式二  x[2]+x[4]
rdd_kv3 = rdd_line.map(lambda x : (x[2]+x[4],int(x[3])))
rdd_res3 = rdd_kv2.groupByKey().mapValues(lambda x : sum(list(x)) / len(list(x)))




# 3-查看数据

res3 = rdd_kv2.collect()
print(res3)
res4 = rdd_res2.collect()
print(res4)

res6 = rdd_res3.collect()
print(res6)
res7 = rdd_res3.collect()
print(res7)

虽然两种map不同,但是结果相同

### 回答1: 好的,下面是关于电商消费数据查询的练习: 1. 查询每个用户的总消费金额和总订单数。 2. 查询每个用户的平均每单消费金额和平均每天消费金额。 3. 查询每个用户的消费金额排名和订单数排名。 4. 查询每个用户的最近一次购买时间和最早一次购买时间。 5. 查询每个用户的购买频率和购买间隔时间。 6. 查询每个用户的购买商品种类数和购买商品品牌数。 7. 查询每个用户的购买商品类别排名和购买商品品牌排名。 8. 查询每个用户的购买商品数量排名和购买商品金额排名。 以上是一些常见的电商消费数据查询练习,可以通过hive或spark进行实现。 ### 回答2: 随着电商行业的不断发展,大量的消费数据已经积累了起来。通过对这些数据进行分析,可以帮助电商企业更好地了解消费者需求,在竞争中获取优势。 Hive和Spark是常用的数据处理工具,我们可以通过这两个工具对电商消费数据进行查询和分析。 首先,我们需要将电商消费数据导入到Hive或Spark中。如果数据已经存在于Hadoop或HDFS中,我们可以通过Hive的外部表或Spark的RDD载入数据。如果数据是以文件形式保存的,我们可以通过Hive或Spark的load命令将数据载入。在导入数据之前,我们需要先进行数据清洗和预处理,剔除无效数据并将数据按照一定格式保存。 接下来,我们可以通过Hive或Spark对电商消费数据进行查询分析,例如: 1. 商品销售排行榜查询 我们可以通过Hive或Spark统计商品的销售量,推出销售排行榜。具体操作如下: ```sql -- Hive示例 SELECT item_id, SUM(quantity) as total_sales FROM sales_data GROUP BY item_id ORDER BY total_sales DESC LIMIT 10; -- Spark示例 val sales_data = sc.textFile("hdfs://path/to/file") val item_sales = sales_data.map(line => (line.split(",")(1), line.split(",")(2).toDouble)) .reduceByKey(_ + _) .sortBy(_._2, false) .take(10) println(item_sales.mkString("\n")) ``` 2. 消费用户分析 我们可以通过Hive或Spark统计每个用户的消费情况,得到消费用户分析报表。具体操作如下: ```sql -- Hive示例 SELECT user_id, COUNT(DISTINCT order_id) as num_orders, SUM(amount) as total_spending FROM sales_data GROUP BY user_id ORDER BY total_spending DESC; -- Spark示例 val sales_data = sc.textFile("hdfs://path/to/file") val user_spending = sales_data.map(line => (line.split(",")(0), (1, line.split(",")(4).toDouble))) .reduceByKey((x, y) => (x._1 + y._1, x._2 + y._2)) .sortBy(_._2._2, false) println(user_spending.collect().mkString("\n")) ``` 3. 地理位置分析 我们可以通过Hive或Spark统计不同地区销售额统计,得到地理位置分析报表。具体操作如下: ```sql -- Hive示例 SELECT province, SUM(amount) as total_sales FROM sales_data GROUP BY province ORDER BY total_sales DESC; -- Spark示例 val sales_data = sc.textFile("hdfs://path/to/file") val location_sales = sales_data.map(line => (line.split(",")(3), line.split(",")(4).toDouble)) .reduceByKey(_ + _) .sortBy(_._2, false) println(location_sales.collect().mkString("\n")) ``` 总的来说,通过Hive或Spark对电商消费数据进行查询分析,可以帮助电商企业更好地了解自己的市场、客户和产品,为企业制定决策提供有力支持。 ### 回答3: 电商消费数据一般包含用户、订单、商品等多种数据,其中包含了丰富的信息,如用户行为、热门商品、销售额等,对于电商企业而言,合理利用这些数据可以帮助企业做出更加明智的商业决策。因此,学习如何使用Hive/Spark查询电商消费数据是很有必要的。 首先针对电商消费数据,需要对数据进行清洗,提取所需数据信息。例如,可以通过Hive的读库、写库机制将数据导入Hive的数据仓库中。清洗后需要对数据进行预处理,包括去重、格式转换、字段筛选等操作。之后我们便可以利用Hive/Spark对这些数据进行查询和分析。 以Hive为例,常见操作包括对查询结果排序、分组、过滤等。例如,对于热门商品的查询,我们可以通过统计商品购买次数,将购买次数前10的商品筛选出来,以此得出热门商品清单。另外,我们还可以运用Hive的时间处理函数来实现按月份或季度对销售额进行统计,并对结果进行可视化展示。 对于Spark而言,除了常规的数据预处理操作之外,还可以运用数据挖掘和机器学习等技术,来实现更加深入的数据分析。Spark支持各种大数据分析库,如MLlib、GraphX等,因此可以实现大规模的分布式计算。例如,我们可以通过使用机器学习算法,对用户的行为模式进行分析,并据此精确预测用户需求,来改善销售和推广策略。 总的来说,电商消费数据查询是很复杂且有趣的,可以帮助企业更好地理解市场需求和客户行为,提高销售收益,提高市场竞争力。Hive和Spark大数据领域中常见的工具,以其高效性和所提供的各种数据转换和查询操作,帮助企业更加科学地使用和处理数据,并从而得到更精准和实时的分析结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值