Spark: Mac上配置pySpark的IDE开发环境

1. 开发工具

  • Java
  • spark-2.3.0-bin-2.6.0-cdh5.7.0
  • PyCharm

2. Spark配置

JAVA_HOME=/Users/chao/.jenv/candidates/java/current/
  • slaves
localhost

3. PyCharm配置

3.1 设置启动参数

  • 新建一个python工程,创建一个.py文件
  • Run -> Edit Configurations -> Configuration -> Environment Variables -> 添加参数:
PYTHONPATH=/Users/chao/Documents/app/spark-2.3.0-bin-2.6.0-cdh5.7.0/bin
SPARK_HOME=/Users/chao/Documents/app/spark-2.3.0-bin-2.6.0-cdh5.7.0

如下图所示:
在这里插入图片描述

3.2 引入spark包

PyCharm -> Preferences -> Project -> Project Structure -> Add Current Root
添加同一个目录下的两个包:

/Users/chao/Documents/app/spark-2.3.0-bin-2.6.0-cdh5.7.0/python/lib/py4j-0.10.6-src.zip
/Users/chao/Documents/app/spark-2.3.0-bin-2.6.0-cdh5.7.0/python/lib/pyspark.zip

4. 测试

spark1001.py

from pyspark import SparkConf, SparkContext

# 创建SparkConf:设置的是Spark相关的参数信息
conf = SparkConf().setMaster("local[2]").setAppName("spark0301")

# 创建SparkContext
sc = SparkContext(conf=conf)

# 业务逻辑
data = [1, 2, 3, 4, 5]
distData = sc.parallelize(data)
print(distData.collect())

sc.stop()

点击运行,结果显示:

[1, 2, 3, 4, 5]

5. 集群运行

  • spark-submit 参数中添加py文件(代替jar包)即可。
spark-submit --master local[2] --name spark0301 /root/script/spark0301.py
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值