Spark基于yarn做资源管理的单机模式搭建

    Spark是一个分布式计算框架,将其和hadoop的yarn结合可以很好的将其和hadoop结合      起来来代替MapReduce来做分布式计算

     基于上一节单机hadoop的搭建继续按照Spark

         export SCALA_HOME=/liu/scala/scala-2.10.4
         export   PATH=$PATH:$SCALA_HOME/bin

  1. Spark是基于Scala开发的首先下载Scala并且配置环境变量,这边下载的是2.10.4 ,下载完成后太在/etc/profile中添加SCALA_HOME和PATH

  2. 查看Spark /conf目录下的slaves目录,这文件记录着所有集群的hostname,由于是单机模式,填入本机hostname即可

  3. 启动spark  sbin目录下start-all.sh开启spark服务

  4. 访问spark页面 http://IP:8080/ 执行Spark自带demo测试是否成功

 Spark全路径/bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode cluster --driver-memory 1G --executor-memory 1G --executor-cores 1 /Spark路径/examples/jars/spark-examples_2.11-2.4.0.jar 40

访问yarn地址查看是否有spark任务被添加

http://IP:8088/

查看jps

 

发现spark的Master服务和Worker服务已经开启

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值