Spark环境搭建-python scala

ubuntu16.04下搭建开发环境

1.安装jdk(版本1.8,官网下载)

2.下载spark,选择对应的hadoop版本(官网下载)(版本2.4.1)

3.下载sbt(版本1.2.8)

4.下载scala(版本2.12.8)

打算学习基于python的spark开发基于scala的spark开发,所以配置了两种开发环境,均亲测可用。

后续将研究讨论版本匹配问题

环境变量的配置如图:

一 基于vscode的spark+python开发环境配置

1. from pyspark import SparkContext

出现问题:no module named pyspark

解决方法:配置环境变量,将spark目录下的python包和py4j包加载到环境变量中。

export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-x.xx.x-src.zip:$PYTHONPATH

结果展示:

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值