linux 环境下 python的安装及pyspark 的环境变量配置

180 篇文章 0 订阅
57 篇文章 2 订阅

在linux环境下安装 python时,要安装相关的依赖,具体如,这里假设的环境是centos 或是 redhat

-安装devtoolset

    #yum groupinstall "Development tools"

-安装编译Python时需要的相关依赖

    #yum install zlib-devel bzip2-devel openssl-devel sqlite-devel

-解压源码包

    $tar -zxv Python-*.*.*.tar.gz

-编译及安装

    #cd Python-*.*.*

    #./configure --prefix=/usr/local

    #make && make install

 

假设spark 安装在/opt的目录下

export  SPARK_HOME=/opt/spark-2.2.1-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH

尤其要注意最后一句的配置,如果没有话,当 python 执行 from pyspark import SparkConf,SparkContext 会报找不到 pyspark 模块的错误 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值