PySpark简单使用(六)——RDD转换为python对象

collect、 reduce、take、count方法

from pyspark import SparkConf, SparkContext
import os
# 1.让PySpark知道Python的解释器位置
os.environ['PYSPARK_PYTHON'] = "C:/Python310/python.exe"
conf = SparkConf().setMaster("local[*]").setAppName("test_spark")
sc = SparkContext(conf=conf)

rdd = sc.parallelize([1, 2, 3, 4, 5])

# collect 算子输出RDD为list对象
rdd_list: list = rdd.collect()
print(rdd_list)
print(type(rdd_list))

# reduce 算子,对RDD进行两两聚合
num = rdd.reduce(lambda a, b: a + b) # 1+2+3+4+5
print(num)

# take算子。取出RDD前N个元素,组成list返回
take_list = rdd.take(3)
print(take_list)

# count 统计rdd内有多少条数据,返回为数值
num_count = rdd.count()
print(f"rdd内有{num_count}个元素")

sc.stop()

输出结果:

[1, 2, 3, 4, 5]

<class ‘list’>

15

[1, 2, 3]

rdd内有5个元素

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值