PySpark环境配置

首先,要知道PySpark是Spark为Python提供的API库,因此使用`pip install pyspark`下载pyspark不等于下载了spark。因此,配置pyspark环境,首先需要下载spark。

(1)linux下载spark的命令:

wget https://dlcdn.apache.org/spark/spark-3.3.1/spark-3.3.1-bin-hadoop3.tgz

(2)spark运行环境需要java,因此需要下载java。

(3)下载好jdk和spark之后,需要在`.bashrc`中配置`JAVA_HOME`和`SPARK_HOME`:

export JAVA_HOME=/home/***/softwares/jdk1.8.0_241
export SPARK_HOME=/home/***/softwares/spark-3.3.1-bin-hadoop3

(4)配置成功。使用`pyspark`打开交互式环境。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值