spark的安装

#spark的安装
##在habdoop安装完成的前提下
在这里插入图片描述
##将下载好的spark,复制到/usr/tmp,并到此目录底下
在这里插入图片描述
##解压到/usr/local
在这里插入图片描述
进入解压目录(/usr/local)
在这里插入图片描述
修改spark的名字
在这里插入图片描述
使Hadoop是当前登录系统的用户名

在这里插入图片描述
进入解压的spark目录
并将目录下的con/spark-env.sh.template复制到con,并改名为spark-env.sh
在这里插入图片描述
这里显示权限不够
使用sudonautilus手动复制文件并改名
在这里插入图片描述
改名后在spark-env.sh在第一行添加一句:
export SPARK_DIST_CLASSPATH=$(/ust/local/hadoop/bin/hadoop classpath)
修改.bashrc文件
文件中应该包含以下内容:
JAVA_HOME
HADOOP_HOME
SPARK_HOME
PYTHONPATH
PYSPARK_PYTHON
PATH

在这里插入图片描述
让代码让环境变量生效
source ~/.bashrc
##验证Spark是否安装好
出现的问题:在~/.bashrc里面明明配置了JAVA_HOME,可是执行spark shell的时候还是会报错java home is not set。
根据提示:https://blog.csdn.net/weixin_38627405/article/details/78336411
出现vim:找不到命令,修改如下
在这里插入图片描述
并将文件中的161行的JAVA_HOME写成自己的jdk位置

在这里插入图片描述
测试时发现还有问题
在这里插入图片描述
通过查找是因为run_example中的JAVA_HOME也需要重新设置一下
在这里插入图片描述
测试成功
在这里插入图片描述
由于输出较多,精选一下,输出如下:
在这里插入图片描述
Spark和hadoop的交互
在这里插入图片描述
还是可以配置JAVA_HOME
在这里插入图片描述
在这里插入图片描述

设置免秘钥登录
在这里插入图片描述
再次尝试
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
运行pyspark
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值