11-pyspark的RDD的变换与动作算子总结


PySpark实战笔记系列第二篇


前言

一般来说,RDD包括两个操作算子:

  • 变换(Transformations):变换算子的特点是懒执行,变换操作并不会立刻执行,而是需要等到有动作(Actions)操作的时候才会真正进行计算,并显示结果。变换算子主要有:map、flatMap、groupByKey和reduceByKey等。

  • 动作(Actions):动作算子的特点是会立刻执行,动作操作会对RDD计算出一个结果,并把结果返回到驱动器程序中,或把结果存储到外部存储系统(如HDFS)中。动作算子主要有:collect、count、take、top和first等

默认情况下,在RDD上执行动作算子时,Spark会重新计算并刷新RDD,但借助RDD的持久化存储(cache和persist)方法可以将RDD缓存在内存当中,这样后续在RDD上执行动作算子时,Spark就不会重新计算和刷新RDD,从而显著提高计算速度。

官方文档:https://spark.apache.org/docs/latest/api/python/reference/pyspark.html

变换算子

操作调用形式参数说明作用示例
glomrdd.glom()将RDD中每一个分区中类型为T的元素转换成Array[T],这样每一个分区就只有一个数组元素在这里插入图片描述
coalescerdd.coalesce(numPartitions,[isShuffle=False])numPartitions:重新分区的分区数;isShuffle:是否在重新分区过程中进行混洗操作将RDD进行重新分区在这里插入图片描述
repartitionrdd.repartiton(numParttions)numPartitions:重新分区的分区数;coalesce()方法shuffle为true的情况在这里插入图片描述
combineByKeyrdd.combineByKey(createCombiner, mergeValue,mergeCombiners,[partitioner], [mapSideCombiner], [serializer])createCombiner 将 Value 进行初步转换;mergeValue 在每个分区把上一步转换的结果聚合;mergeCombiners 在所有分区上把每个分区的聚合结果聚合;partitioner 可选, 分区函数;mapSideCombiner 可选, 是否在 Map 端 Combine;serializer 序列化器对数据集按照Key进行聚合PySpark之Spark中的CombineByKey
distinctrdd.distinct()duid去重,即多个重复元素只保留一个
filterrdd.filter(func)func:过滤函数根据过滤函数func的逻辑含义对原RDD中的元素进行过滤,并返回一个新的RDD,其由满足过滤函数的True的元素构成在这里插入图片描述
flatMaprdd.flatMap(func)func:定义的函数名对RDD中每个元素按照func函数定义的处理逻辑进行操作,并将结果扁平化在这里插入图片描述
flatMapValuesrdd.flatMapValues(func)func:定义的函数对RDD元素格式为KV对中的V进行func定义的逻辑处理,Value中每一个元素被输入函数func映射为一系列的值,然后这些值再与原RDD中的Key组成一系列新的KV对,并将结果进行扁平化处理在这里插入图片描述
foldrdd.fold(value,func)value:设定的初始值对RDD每个元素按照func定义的逻辑进行处理。func包含两个参数a,b,其中a的初始值为value,后续代表累计值,b代表当前元素值。在这里插入图片描述spark的fold函数理解
foldByKeyrdd.foldByKey(value,func)value:设定的初始值此操作作用于元素为KV格式的RDD。它的作用是对RDD每个元素按照Key进行func定义的逻辑进行处理。func包含两个参数a,b,其中a的初始值为value,后续代表累计值,而b代表的是当前元素值。在这里插入图片描述
foreachrdd.foreach(func)对RDD每个元素按照func定义的逻辑进行处理。
foreachPartitionrdd.foreachPartition(func)对RDD每个分区中的元素按照func定义的逻辑进行处理
maprdd.map(func,preservesPartitioning=False)对RDD每个元素按照func定义的逻辑进行处理,它在统计单词个数等场景下经常使用在这里插入图片描述
mapPartitionsrdd.mapPartitions(func,preservesPartitioning=False)对RDD每个分区中的元素按照func定义的逻辑进行处理,并分别返回值在这里插入图片描述
mapValuesrdd.mapValues(func)对KV格式的RDD中的每个元素应用函数func,这个过程汇总不会更改键K,同时也保留了原始RDD的分区,即返回新的RDD在这里插入图片描述
groupByrdd.groupBy(func,numPartitions=None,partitionFunc=<function portable_hash><function portable_hash>)它接收一个函数func,这个函数返回的值作为Key,然后通过这个Key来对其中的元素进行分组,并返回一个新的RDD对象(返回的RDD中是KV格式的数据,其中V是一个迭代对象,因此需要遍历进行元素访问。)在这里插入图片描述
goupyByKeyrdd.groupByKey(numPartitions=None,partitionFunc=<function portable_hash><function portable_hash>)将RDD中每个键的值分组为单个序列,用numPartitions分区对生成的RDD进行哈希分区,并返回一个新的RDD对象在这里插入图片描述
keyByrdd.keyBy(func)在RDD上应用函数func,其中将原有RDD中的元素作为Key,该Key通过func函数返回的值作为Value创建一个元组,并返回一个新的RDD对象在这里插入图片描述
keysrdd.keys()获取KV格式的RDD中的Key序列,并返回一个新的RDD对象在这里插入图片描述
ziprdd.zip(oterRdd)将第一个RDD中的元素作为Key,第二个RDD对应的元素作为Value,组合成元素格式为元组的新RDD。这两个参与运算的RDD元素个数应该相同。在这里插入图片描述
zipWithIndexrdd.zipWithIndex()是将RDD中的元素作为Key, Key对应的元素索引作为Value,组合成元素格式为元组的新RDD在这里插入图片描述
valuesrdd.values()获取KV格式的RDD中的Value序列,并返回一个新的RDD对象
unionrdd.union(oterRDD)将第一个RDD中的元素与第二个RDD对应的元素进行合并,返回新RDD在这里插入图片描述
takeOrderedrdd.takeOrdered(num,key=None)num:获取的元素个数;key:排序依据从RDD中获取排序后的前num个元素构成的RDD,默认按照升序对元素进行排序,但也支持用可选函数进行指定在这里插入图片描述
takeSamplerdd.takeSample(withReplacement,num,seed=None)withReplacement:布尔值,代表元素是否可以多次抽样;num:代表抽样的样本数量;seed:代表随机数生成器的种子从RDD中抽样出固定大小的子数据集合,返回新的RDD在这里插入图片描述
subtrackrdd.subtract(otherRDD,numPartitions=None)numPartitons:可选,用于指定产生的差集RDD的分区数从RDD中排除掉otherRDD中的元素,并返回一个新的RDD在这里插入图片描述
subtractByKeyrdd.subtractByKey(otherRDD,numPartitions=None)numPartitons:可选,用于指定产生的差集RDD的分区数从元素为KV格式的RDD中排除掉otherRDD中的元素,只要两个RDD的元素Key一致,则排除,并返回一个新RDD在这里插入图片描述
sortByrdd.sortBy(keyfunc,ascending=True,numPartitions=None)根据函数keyfunc来对RDD对象元素进行排序,并返回一个新的RDD在这里插入图片描述
sortByKeyrdd.sortByKey(ascending=True, numPartitions=None, keyfunc=<function RDD.<lambda><lambda>>)keyfunc:可选,不提供则按照RDD中元素的key进行排序针对元素格式为KV的RDD,根据函数keyfunc来对RDD对象元素进行排序,并返回一个新的RDD在这里插入图片描述
samplerdd.sample(withReplacement,fraction,seed=None)withReplacement:布尔值,用于表示在采样过程中是否可以对同一个元素进行多次采样;fraction:数值,在[0,1]之间,指定抽样的比例;seed:随机数生成器的种子对数据按照指定的比例进行抽样(并不精确,例如100个元素的0.2不一定就是20个,可能存在偏差。)在这里插入图片描述
reducerdd.reduce(func)以按照函数func的逻辑对RDD中的元素进行运算,以减少元素个数(不能在空RDD上操作,会报ValueError错误)在这里插入图片描述
reduceByKeyrdd.reduceByKey(func,numPartitions=None,partitionFunc=<function partable_hash>)按照函数func的逻辑对元素格式为KV的RDD中的数据进行运算,以减少元素个数在这里插入图片描述
randomSplitrdd.randomSplit(weights,seed=None)weights:随机分割的权重按照权重weights对RDD进行随机分割,并返回多个RDD构成的列表在这里插入图片描述
lookuprdd.lookup(key)key:指定的查找键值根据key值从RDD中查找到相关的元素,返回RDD中键值的值列表在这里插入图片描述
joinrdd.join(otherRDD,numPartitions=None)返回一个RDD,其中包含自身和otherRDD匹配键的所有成对元素。每对元素将以(k,(v1,v2))元组返回,其中(k,v1)在自身中,而(k,v2)在另一个otherRDD中在这里插入图片描述
intersectionrdd.intersection(otherRDD)返回一个此RDD和另一个otherRDD的交集,在这个过程中,会进行去重操作在这里插入图片描述
fullOuterJoinrdd.fullOuterJoin(otherRDD,numPartitions=None)对于RDD自身中的每个元素(k,v),如果另外一个otherRDD匹配到k,那么生成的RDD元素格式为(k,(v,w));如果另外一个otherRDD匹配不到k,则生成的RDD元素格式为(k,(v,None))。同样地,在otherRDD匹配到k的值,但是在RDD自身没有匹配到值w,则返回None,即生成的RDD元素格式为(k,(None,w))。在这里插入图片描述
leftOuterJoinrdd.leftOuterJoin(otherRDD,numPartitions=None)返回此RDD和另一个otherRDD的左外部连接(left outer join)。对于RDD自身中的每个元素(k,v),如果另外一个otherRDD匹配到k,那么生成的RDD元素格式为(k,(v,w)),如果另外一个otherRDD匹配不到k,则生成的RDD元素格式为(k,(v,None))。在这里插入图片描述
rightOuterJoinrdd.rightOuterJoin(otherRDD,numPartitions=None)返回此RDD和另一个otherRDD的右外部连接(left outer join)。
aggregateByKeyrdd.aggregateByKey(zeroValue,seqFunc,combFunc,numPartitions=None,partitionFunc=<function partable_hash>)zeroValue代表每次按Key分组之后的每个组的初始值。seqFunc函数用来对每个分区内的数据按照key分别进行逻辑计算。combFunc对经过seqFunc处理过的数据按照key分别进行逻辑计算。在这里插入图片描述
cartesianrdd.cartesian(oterRDD)返回自身元素和另外一个otherRDD中元素的笛卡尔积在这里插入图片描述

动作算子

操作调用形式参数说明作用示例
firstrdd.first()获取到RDD中的一个元素在这里插入图片描述
maxrdd.max()获取到RDD中最大的一个元素在这里插入图片描述
minrdd.min()获取到RDD中最小的一个元素
sumrdd.sum()获取到RDD中元素的和在这里插入图片描述
takerdd.take(n)n:代表获取的元素个数获取到RDD中指定的前n个元素在这里插入图片描述
toprdd.top(n)n:代表获取的元素个数获取到RDD中排序后的前n个元素在这里插入图片描述
countrdd.count()获取到RDD中元素的个数在这里插入图片描述
collectrdd.collect()将RDD类型的数据转化为数组,同时会从集群中拉取数据到driver端在这里插入图片描述
collectAsMaprdd.collectAsMap()与collect操作类似,但适用于键值RDD并将它们转换为Map映射以保留其键值结构在这里插入图片描述
countByKeyrdd.countByKey()统计RDD[K,V]中每个K的数量,字典形式返回各键的统计数量情况在这里插入图片描述
countByValuerdd.countByValue()统计RDD中各个Value出现的次数,并返回一个字典。字典的K为元素的值,而V是出现的次数在这里插入图片描述
statsrdd.stats()给出RDD数据的统计信息,包括计数、均值、方差、最大值和最小值,返回的是一个StatCounter对象在这里插入图片描述
aggregaterdd.aggregate(zeroValue,seqOp,combOp)zeroValue:初始值,形式是(x,y);seqOp函数:是对每个分区上的数据信息操作;combOp函数对每个分区的计算结果再进行合并操作使用给定的seqOp函数和给定的零值zeroValue来聚合每个分区上的元素,然后再用combOp函数和给定的零值zeroValue汇总所有分区的结果。在这里插入图片描述
cacherdd.cache()在RDD对象上进行缓存操作,后续的RDD操作会直接从内存中加载数据进行计算。使用默认存储级别(MEMORY_ONLY)保留该RDD,防止多次进行创建,从而提高效率。在这里插入图片描述
persistrdd.persist(storageLevel)storageLevel:指定缓存的存储级别在RDD对象上按照指定的存储级别进行缓存操作
saveAsTextFilerdd.saveAsTextFile(path,compressionCodecClass=None)path:代码保存的文件路径;compressionCodecClass:用于压缩,默认为“org.apache.hadoop.io.compress.GzipCodec”保存RDD对象为一个文件,其中元素以字符串的形式体现。在这里插入图片描述

参考文档:


博主写博文就是方便对自己所学所做的事做一备份记录或回顾总结。欢迎留言,沟通学习。

刚开始接触,请多指教,欢迎留言交流!

  • 15
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

积跬步,慕至千里

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值