Spark集群单机版安装配置

配置好单机版后,若有需要配置分布式集群可以参考我的这篇博客https://blog.csdn.net/weixin_43729499/article/details/103858637

单机版配置步骤:
1、下载spark安装包
安装包可以到官网上直接下载,不过国外的网下载速度可能会稍微慢,可以考虑换个源来下载

2、对文件进行解压(tar -zxvf XXX),并移动到指定位置
(移动位置命令:mv XXX YYY
XXX就是你的安装包名称,YYY是目的路径)

3、修改配置文件

①、spark-env.sh可以复制一份由spark安装文件自带的配置文件模板spark-env.sh.template并重命名为spark-env.sh;

然后,vim 编辑spark-env.sh,添加以下配置信息:
export SPARK_DIST_CLASSPATH=$(hadoop的路径/hadoop/bin/hadoop classpath)
例如在/home下,则为

export SPARK_DIST_CLASSPATH=$(/home/hadoop/bin/hadoop classpath)

(有了此配置信息,spark才可以把数据存储到Hadoop分布式文件系统HDFS中,并从HDFS读取数据,否则只能读写本地文件系统的数据)

export HADOOP_CONF_DIR=hadoop的路径/hadoop/etc/hadoop
例如在/home下,则为
export HADOOP_CONF_DIR=/home/hadoop/etc/hadoop

export JAVA_HOME=JDK环境变量
例如在/home下,则为
export JAVA_HOME=/home/jdk

②、编辑 ~/.bashrc或/etc/profile
下面我以~/.bashrc为例,(/etc/profile也是大致相同)
vim 编辑~/.bashrc,添加以下配置信息:
黄色框中的信息是你的本地spark安装包解压位置
可以在安装包目录下执行
pwd
来查看所在路径

配置好这些信息后,
source ~/.bashrc 使配置文件生效

4、通过运行spark自带的实例SparkPi,验证spark是否安装成功:

进入spark目录下的bin,执行:
./run-example SparkPi

运行程序执行时会输出很多屏幕信息,若要从大量的输出信息中找到我们想要的执行结果,可以使用来:
./run-example SparkPi 2>&1 | grep “Pi is roughly”

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值