pyspark安装及使用

1.spark单机安装

1>.下载spark,解压

2.配置环境变量~/.bashrc

export SPARK_HOME=/home/cpp/software/spark
#export HADOOP_CONF_DIR= 
#export YARN_CONF_DIR=
export PATH="/opt/anaconda3/bin:$PATH:/home/cpp/software/spark/bin"

export PYTHONPATH=$SPARK_HOME/python/:$PYTHONPATH
export PYTHONPATH=$SPARK_HOME/python/lib/py4j-0.10.4-src.zip:$PYTHONPATH

export PYSPARK_PYTHON=python3

3.pyspark  运行测试

4.python>import pyspark测试

5.pycharm   (.py)

import sys
sys.path.append("/home/cpp/software/spark/python")
import os
os.environ['JAVA_HOME']='/usr/java/jdk1.7.0_60'

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值