运行python版本的Spark程序

本文介绍了两种运行Python版本Spark程序的方法:通过spark-submit解释执行和使用Python解释执行。在spark-submit方式中,需在python脚本开头导入Spark模块,并使用spark-submit提交。而在Python解释执行时,由于缺少pyspark和py4j模块,需要设置PYTHONPATH环境变量。
摘要由CSDN通过智能技术生成

两种方法:

  1. 使用 spark-submit 解释执行python脚本
  2. 使用 python 解释执行python脚本

1. 使用Spark-submit解释执行python脚本

python脚本中需要在开头导入spark相关模块,调用时使用spark-submit提交,示例代码如下:

===========================================================

"""odflow.py"""
from pyspark import SparkContext

fileDir = "/TripChain3_Demo.txt"
# sc = SparkContext("local", "ODFlow")
sc = SparkContext("spark://ITS-Hadoop10:7077", "ODFlow")
lines = sc.textFile(fileDir)

# python不能直接写多行的lambda表达式,所以要封装在函数中
def toKV(line):
    arr = line.split(",")
    t = arr[5].split("
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值