Spark Python API 学习(2)

常用API讲解-文件的读取与存储

SparkAPI–本地文本文件的读取和保存(文本文件指txt文件)
1.读取本地文本文件

    input = sc.textFile("想要打开的文件路径") #此时的input就整个文本文件的一个RDD

2.当我们对input这个RDD进行数次转换操作和行动操之后,我们需要对运算完的结果进行保存

    result.saveAsTextFile("需要保存的文件路径")

注:Spark还支持多种文件格式(包括JOSN,CSV等),这些文件的读取和保存与文本文件类似,
用到时候再查就可以,但是还是应该了解JOSN和CSV等文件的组织形式
补充:创建RDD还可以直接输入创建,但是这种方式不常用,方法如下:

    lines = sc.parallelize(["pandas","i like pandas"])
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Spark PythonSpark提供的用于Python编程的API。通过将应用写成Python脚本,并使用bin/spark-submit脚本提交运行,可以使用Spark Python API来进行大数据分布式计算。 Spark Python API提供了一系列函数调用,可以帮助开发人员在Python中进行大数据处理和分析。你可以通过学习一些关于Spark Python API函数调用的资料来更好地理解和使用它们。 在Spark中,驱动程序通过一个SparkContext对象来访问Spark,这个对象代表对计算集群的一个连接。 通过使用Spark Python API,你可以方便地在Python中进行大数据处理和分析,提高工作效率。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [Spark 学习-1 (python)](https://blog.csdn.net/m0_55641196/article/details/127449097)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* [Spark python API 函数调用学习](https://download.csdn.net/download/qq_35996035/10597702)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值