pySpark学习

《Spark快速大数据分析》笔记

from pyspark import SparkConf, SparkContext
conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf = conf)

 

pyspark的初始化,也就是入口,setMaster是指定连接的集群,setAppName是指应用名

 

有时候,我们希望对每个输入元素生成多个输出元素。实现该功能的操作叫作 flatMap()
map() 类似,我们提供给 flatMap() 的函数被分别应用到了输入 RDD 的每个元素上。不
过返回的不是一个元素, 而是一个返回值序列的迭代器。

 

我们在图 3-3 中阐释了 flatMap() map() 的区别。你可以把 flatMap() 看作将返回的迭代器
“拍扁”,这样就得到了一个由各列表中的元素组成的 RDD,而不是一个由列表组成的 RDD
3-3RDD flatMap() map() 的区别

 

 

 

这一段没看懂:

 

 

 

 

转载于:https://www.cnblogs.com/tangbinghaochi/p/7985613.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值