pyspark 读取本地csv_pyspark学习系列(二)读取CSV文件 为RDD或者DataFrame进行数据处理...

本文介绍了如何使用PySpark从本地文件系统读取CSV数据,包括直接转换为DataFrame和通过RDD处理。同时,也展示了从HDFS读取CSV文件的方法,涉及com.databricks.spark.csv库的使用。
摘要由CSDN通过智能技术生成

一、本地csv文件读取:

最简单的方法:

importpandas as pd

lines=pd.read_csv(file)

lines_df= sqlContest.createDataFrame(lines)

或者采用spark直接读为RDD 然后在转换

importpandas as pdfrom pyspark.sql importSparkSessionfrom pyspark importSparkContextfrom pyspark.sql importSQLContextfrom pyspark.sql.types import *spark=SparkSession.builder.appName("lz").getOrCreate()

sc=SparkContext.getOrCreate()

lines= sc.textFile('/Users/xdstar/Desktop/test04.csv')

如果你的csv文件有标题 的话,需要剔除首行

header = lines.first()#第一行 print(header)

lines = lines.filter(lambda row:row != header)#删除第一行

/Users/xdstar/PycharmProjects/untitled3/venv/bin/python /Users/xdstar/Desktop/sprak_test/test1.py

打印结果:

序号,省份,所属院线,影院编码,影院名称,场次编码,影片编码,影片名称,发行版本,影厅编码,放映日期,放映时间,总人数,总票房

此时lines 为RDD。如果需要转换成dataframe:

sch

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值