linux安装pyspark_pyspark学习笔记——安装篇

本文档详细介绍了如何在Linux环境下安装PySpark。首先确保已安装Java和Hadoop,接着安装Scala,解压并配置环境变量。然后下载与Hadoop版本兼容的Spark,同样解压并配置环境变量。同时,安装Anaconda并创建工作目录。通过终端启动HDFS,并检查Spark的配置。最后,提到了使用Jupyter Notebook与Scala集成的步骤。
摘要由CSDN通过智能技术生成

家里用的单机hadoop,公式用的集群hadoop,此安装基于家里的笔记本。

所以java,hadoop都已经是可以用的。

1。scala语言

spark是以scala语言开发的,所以必须安装scala。

去官网下载tgz包。我这里选择的是2.11.6版本。(windows可以复制下载链接到迅雷,这样会比较快)

然后把tgz包放到你的linux用户目录下。

然后解压,生成不带tgz后缀的文件

tar xvf scala-2.11.6.tgz

把该文件放到一个地方,我这里是放到hadoop相同的local目录下

sudo mv scala-2.11.6 /usr/local/scala

编辑环境变量

vi ~/.bashrc

写入下列保存并source 使其生效

export SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

然后在shell里运行scala就能进入scala编译模式

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值