Ansible入门篇(八):Spark自动化安装

Spark是专为大规模数据处理而设计的快速通用的计算引擎,底层是基于Scala开发。

注:以下是基于Spark的Standalone模式自动化安装

Spark安装包下载

到 Spark官网下载对应安装包,本文以Spark 2.2.0版本为例。

将下载好的 spark-2.2.0-bin-hadoop2.7.tgz上传到/opt/ansible/roles/files目录下,本文将所有tar安装包都进行了重命名操作,比如将 spark-2.2.0-bin-hadoop2.7.tgz解压后重命名为spark并打成spark.tar.gz包。

 

编写主机hosts  

编辑/opt/ansible/hosts文件添加部署Spark机器IP 

[spark_servers]
172.18.18.120   
172.18.18.121   
172.18.18.122   

 

编写Spark配置文件 

将spark-2.2.0-bin-hadoop2.7.tgz解压后的配置文件spark-env.sh和slaves修改成自己的配置并重命名为spark-env.sh.j2和slaves.spark.j2,然后上传到/opt/ansible/roles/templates/ 目录下。由于配置文件较多,本文不进行展示。

 

编写参数配置main.yml

编辑/opt/ansible/roles/vars/main.yml文件,添加变量  

BigdataDir: /opt/hzgc  

AnsibleDir: /opt/ansible

 

 编写执行文件spark.yml 

- hosts: spark_servers
  remote_user: root
  roles:
  - roles

 

  tasks:
   - name: copy and unzip spark
     unarchive: src={{AnsibleDir}}/roles/files/spark.tar.gz dest={{BigdataDir}}
   - name: install configuration file slaves for spark
     template: src={{AnsibleDir}}/roles/templates/slaves.spark.j2 dest={{BigdataDir}}/spark/conf/slaves
   - name: install configuration file spark-env for spark
     template: src={{AnsibleDir}}/roles/templates/spark-env.sh.j2 dest={{BigdataDir}}/spark/conf/spark-env.sh
   - name: change sbin file
     file: dest={{BigdataDir}}/spark/sbin mode=0755 recurse=yes
   - name: change bin file
     file: dest={{BigdataDir}}/spark/bin mode=0755 recurse=yes
   - name: start spark cluster
     shell: sh {{BigdataDir}}/spark/sbin/start-all.sh
     tags:
      - start spark

 

执行Zookeeper安装部署 及启动 

ansible-playbook -i hosts  yml/spark.yml 

查看是否安装成功:jps 

 

文章目录:

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值