pyspark案例系列1- 运行spark-sql的几种方式

一.环境介绍

我本地的环境的CDH 6.3.1的环境,自己已经将spark软件安装成功了。
然后有一个节点因为不小心升级了spark的版本,导致与集群失去了联系,然后在该节点下重新安装了spark。

二.运行spark-sql的几种方式

2.1 spark-shell的方式

可以通过spark-shell的方式来登陆spark,然后用spark.sql模块来执行sql。

命令:

spark-shell --master local[2] \
spark.sql("use test").show(false)
spark.sql("select * from emp").show(false)

测试记录:
image.png

可以看到spark 的history server上有spark-shell的记录。
image.png

2.2 beeline的方式

通过beeline的方式,然后jdbc连接hive。

命令:

beeline
!connect jdbc:hive2://10.31.1.123:10000
username: spark
password : spark

测试记录:
image.png

测试过后,spark 的history server及yarn上都没有该脚本的运行记录。

2.3 spark-sql的方式

spark-sql常用的查询工具,速度比较hivesql要快。但是cdh6并没有spark-sql。

我们独立安装的一个节点的spark
代码:

cd /etc/spark/conf
cp /etc/hive/conf/hive-site.xml ./

sudo -u hdfs hadoop fs -chmod -R 777 /tmp/hive
cd /tmp
rm -rf hive

-- 此时spark登陆的居然是一个全新的库
spark-sql

测试记录:
image.png

此时spark登陆的居然是一个全新的库
这个问题后面再看,实在不能登陆spark-sql的话,就用spark shell进行代替吧。

参考:

1.https://www.cnblogs.com/yaowentao/p/13048664.html
2.https://blog.csdn.net/weixin_33683108/article/details/114489527
3.https://blog.csdn.net/qq_36835255/article/details/90770620

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值