spark在IntelliJ中输出filter想要的结果

本文档介绍了如何在IntelliJ中利用Spark的filter操作筛选数据。首先,通过SparkContext将Scala集合转为RDD,接着使用filter方法筛选所需数据,并通过collect方法将filter后的RDD转换为集合进行查看。最后,使用foreach配合println逐行输出筛选结果。参考链接提供了更多关于输出详细结果的方法。
摘要由CSDN通过智能技术生成

1.通过SparkContext把Scala中的集合转化为RDD

通过SparkContext提供的parallelize方法把Scala中的集合转换为RDD
val listRDD = sc.parallelize(List(6,8,10,12,16))

2.filter筛选想要数据

这里我们通过filter筛选出大于10的元素
val filterRDD = listRDD.filter(_ >10)

3.输出filterRDD

结果为:MapPartitionsRDD[1] at filter at PrintDemo.scala:25
发现不是我们想要的

4.把filterRDD通过collect转换为集合,然后输出查看

println(filterRDD.collect())
结果为:[I@33128e87  还是不是我们想要的结果。

5.通过foreach(println)隔行输出想要的结果

filterR
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值