spark-sql cli客户端搭建

网上关于spark-sql的资料很少,刚开始用spark-sql cli时我也好奇怎么还能使用这样的方式?下面就自己试了一下,

如果你看到这个文章,你会发现跟不用搭建,可能你只是不知到入口,在集群上启动很简单,进到spark/bin目录下面执行spark-sql,和spark-shell完全相同,这个是在集群中的一台设备上执行的

但是有些公司是用spark-sql client模式开发的,不是给你一个节点的服务器,那怎么重现;

其实用spark-sql cli模式很简单,

1.启动spark集群和其他服务,

2.选择集群中的一个节点,kill全部jps查看到的进程

3.在spark/bin目录下面直接启动spark-sql 就可以正常访问,当前服务器相当于一集群的客户端

到现在应该已经理解了,spark-sql 单独启动虽然不需要启动hive,hadoop等服务,但是其环境变量和配置还是需要的,spark-sql启动后会将相关配置上传到集群。spark集群需要的hive和hadoop等安装包也要安装好,并且配置和集群配置一样,可以理解成复制集群一个节点出来。就这么简单!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值