spark 2.3.1 standalone模式服务搭建-初级

前阵子学习spark,搭建了standalone模式的服务,总结下

1.首先从spark官网下载http://spark.apache.org/downloads.html 下载spark包,版本号我用的是2.3.1,两个带hadoop版本的都行,因为standalone模式是不需要hadoop环境的。

2.下载完成后,解压,直接运行sbin/start-master.sh,服务启动后,可以通过ip:8080 访问看下服务的情况,这时候master模式使用的是localhost,如果想要绑定其他ip,sbin/start-master.sh -p ip,就可以,这时候访问ip:8080 就能看到spark的地址有变化。master服务启动完成。

3.启动slave服务,/sbin/start-slave.sh 这样就启动slave服务了,这时候访问ip:8080 ,就能看到worker里有新的机器了。

 

这样简单的standalone模式的spark服务就搭建完成了。

 

具体的再可以参考spark官方文档,其他搜索的教程尽量别参考了,版本差别很大,自己踩过好多坑。 http://spark.apache.org/docs/latest/spark-standalone.html

转载于:https://my.oschina.net/u/3396724/blog/1841654

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值