Spark使用jdbc连接sparkSQL(hiveserver2)的步骤

根据Spark官网所述,Spark SQL实现了Thrift JDBC/ODBC server:

 

The Thrift JDBC/ODBC server implemented here corresponds to the HiveServer2 in Hive 1.2.1 You can test the JDBC server with the beeline script that comes with either Spark or Hive 1.2.1.

 

这就意味着我们可以像HIVE那样通过JDBC远程连接Spark SQL发送SQL语句并执行。

 

1、准备工作

把hive里的hive-site.xml拷贝到spark的conf下,并且修改里面参数,如主机名为当前机器的主机名,后面登陆的时候就用这个主机名,端口就是设置的10000,此时这台机器是上启动的start-thriftserver.sh相当于hive上启动hiverserver2,不管是在hive上启动(sbin/hiveserver2)还是在spark上启动(sbin/start-thriftserver.sh),都用bin/beeline 连接时的主机名和这个配置里的一样(注意,这个配置里的主机名也必须是当前启动服务的机器的主机名,也就是,在哪台机器上启动就配置哪台机器上的主机名)

例如

sbin/start-thriftserver.sh  --jar "mysql-connect---.....jar"(mysql的驱动jar包)  "json-sered-.... "(处理json格式数据的jar包)

bin./beeline

beeline> !connect jdbc:hive2://spark2:10000

<
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值