怎样升级spark集群到更新的版本?

怎样升级spark集群到更新的版本?

-IMF-李明

说明

· 事实上升级spark很简单,因为spark并不是传统意义上‘安装’在你的集群上,只需要:下载并解压合适的版本,进行一定的配置并修改SPARK_HOME等环境变量(后两点可选);

· 本文升级spark 1.6.01.6.1为例来说明如何升级;

· 本文中spark安装 VMware虚拟机中ubuntu

· 本文安装升级pre-built 版本为例,如果你集群安装的是source code版本的,原大致相同(pre-built版本是编译好了的,source code版本的需要你自己编译

· 我们首先在一台节点上完成升级配置,然后SCP拷贝到其它节点

,正式开始。

1. 从官网下载最新版sparkhttps://spark.apache.org/downloads.html

 


 

:当然你也可以直接在虚拟机中通过wget下载如下所示:

 

2. 将下载好的spark解压到目标文件夹中:tar –xzvf spark-1.6.1-bin-hadoop2.6.tgz

解压spark的内容如下所示:

 

3. 进入$SPARK_HOME/conf 文件夹下配置spark主要更改的文件有slaves,spark-env.sh,spark-defaults.conf。更改后的内容如下:

Slaves:

 

Spark-env.sh:

 

Spark-defaults.conf:

 

注:spark官方推出版本的时候,已经考虑了新旧版本兼容性,所以这几个配置文件的内容大体上差不多故你也可以直接拷贝旧版本的配置文件

4. 修改环境变量bashrc中的SPARK_HOMEPATH变量,指向新的版本的路径

 

重启使环境变量的更改生效。

重启后验证下环境变量的更改是否生效

 

5. 把配置好的SPARK拷贝到各个节点,并更改各个节点的bashrc环境变量。

6. 现在就可以使用新版本的集群啦!

 

7. 特别说明:

升级到新版本后,的版本你也可以不删除,这样当需要的时候,你可以修改环境变量指向旧的版本,来完成回滚;当然你也可以到对应目录执行命令启动对应版本集群,来测试比较新旧版本的不同

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值