linux目录下pyspark,Linux下搭建PySpark环境

安装spark:

tar -zxvf ./spark-2.4.3-bin-hadoop2.7.tgz -C ./spark

export SPARK_HOME=/home/service/spark-2.4.5-bin-hadoop2.7

export PATH=$SPARK_HOME/bin:$PATH

安装hadoop:

tar -zxvf ./hadoop-2.6.0-cdh5.8.5.tar.gz -C ./hadoop

export HADOOP_HOME=/home/service/hadoop-2.7.7

export PATH=$HADOOP_HOME/bin:$PATH

安装scala:

tar -zxvf ./scala-2.13.0.tgz -C ./scala

export SCALA_HOME=/home/service/scala-2.11.0

export PATH=$SCALA_HOME/bin:$PATH

source ~/.bashrc

安装pyspark:

pip install pyspark

参考:

标签:bin,tar,PySpark,scala,hadoop,Linux,HOME,spark,搭建

来源: https://www.cnblogs.com/luckyboylch/p/12567710.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值