spark的安装搭建

Standalone模式

  • 1 . 安装包上传服务器并解压
    在这里插入图片描述
  • 2 . spark解压文件下conf目录中将slaves.template文件更名为slaves
    在这里插入图片描述
  • 3 . 修改slaves文件 , 配置从节点work
    在这里插入图片描述
  • 4 . 上步完成后 , 将同目录下的 spark-env.sh.template 更名为 spark-env.sh
    在这里插入图片描述
  • 5 . 修改spark-env.sh , 注意设置参数请参考虚拟机或服务器的实际性能
    在这里插入图片描述
  • 6 . 将配置好的spark解压文件同步到集群其他节点 , 无所谓master和work .
  • 7 . 启动集群 , 到sbin目录下start-all.sh , 注意如果配置环境变量可以和hadoop的start-all.sh命令冲突
    在这里插入图片描述
  • 8 . 集群启动后可以通过ip和8080端口访问web
    在这里插入图片描述
  • 测试 , 可通过spark解压文件bin目录下的spark-submit命令后跟mater节点ip和7077端口 , 调用lib多级目录下的sparkPi函数 传入100参数进行测试 .
    ./spark-submit --master spark://node01:7077 --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
    在这里插入图片描述

Yarn模式

  • yarn模式的启动先回到集群未启动的情况下
  • 配置spark-env.sh
    • 1 . spark集群在yarn模式下进行资源管理任务调度 , 首先要知道yarn的情况 , 找到yarn-site.xml的位置
      在这里插入图片描述
    • 2 . 再次修改spark解压文件下conf目录中的spark-env.sh文件 , 通过阅读蓝色字的注释 , 配置HADOOP_CONF_DIR , 将yarn-site.xml的位置填入.
      在这里插入图片描述
  • 启动zookeeper : zkServer.sh start
  • 启动hadoop集群:start-all.sh
  • spark集群在yarn模式下进行资源管理任务调度时 , 通过sbin目录下spark.submit命令 , master后面的spark更换为yarn , 再次调用sparkPi函数进行测试
    • ./spark-submit --master yarn --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.0-hadoop2.6.0.jar 10000
    • 通过访问yarn的web页面 , 可以查看到sparkPi的job任务执行状况
      在这里插入图片描述
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值