pyspark中map模型&&flatmap模型

文章介绍了PySpark中用于数据处理的map和flatmap方法。map函数对RDD的每个元素应用指定的lambda函数,如将每个元素乘以10再加5。而flatmap则在map的基础上进一步消除元素的嵌套,如将字符串按空格拆分成单独的单词。文中通过实例展示了这两个方法的使用。
摘要由CSDN通过智能技术生成

---【map】---

 

 map方法,是对rdd中的每一个元素都进行操作。

【运行实例】:

from pyspark import SparkConf, SparkContext
import os
os.environ["PYSPARK_PYTHON"]="D:/python_set/py_run/python.exe"
conf=SparkConf().setMaster("local[*]").setAppName("run_pyspark")
sc = SparkContext(conf=conf)
# 准备一个rdd,其中以列表形式存储了五个数,分别是1,2,3,4,5
rdd = sc.parallelize([1, 2, 3, 4, 5, 6])
# 通过map方法,将所有数据全部都乘以10,map()括号中需要传入函数,这个被定义的函数必须能够接收一个参数的传入,能够返回一个返回值
# lambda函数:接收一个参数作为x,将x*10+5作为返回值(链式调用)
new_rdd = rdd.map(lambda x: x * 10).map(lambda x: x + 5)
# f:(T) -> U
print(new_rdd.collect())
sc.stop()

 

---【flatmap】---

 

 【运行实例】:

from pyspark import SparkConf, SparkContext
import os
os.environ["PYSPARK_PYTHON"]="D:/python_set/py_run/python.exe"
conf=SparkConf().setMaster("local[*]").setAppName("run_set")
sc = SparkContext(conf=conf)
# 准备一个rdd
"""flatMap的作用和map作用差不多一样,唯一的区别就是,flatmap会在最后解除一层数据嵌套"""
rdd = sc.parallelize(["python 111 333 555", "pycharm 444", "pyspark 4121", "666 4444"])
rdd = rdd.flatMap(lambda x: x.split(" "))
print(rdd.collect())

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值