java spark on hive_Spark On Hive 配置

配置

1、将Hive-site.xml复制到Spark/conf目录下

如果hive-site中配置了查询引擎,需要将其注掉

2、将把 Mysql 的驱动  mysql-connector-java-5.1.27-bin.jar copy 到 Spark/jars/目录下

3、保险起见,可将core-site.xml和hdfs-site.xml 拷贝到Spark/conf/目录下

4、如果hive中表是采用Lzo或snappy等压缩格式,需要配置spark-defaults.conf,详情参考https://www.cnblogs.com/yangxusun9/p/12827957.html#fneQWfJQ,或者直接将lzo包拷贝到jars目录下

花式连接

利用spark-sql 来代替 hive

最普遍的应用就是在脚本中, 用 ''spark-sql --master yarn '' 来代替   " hive",来提高运行速度

开启thriftserver服务,利用beeline连接

开启thriftserver服务

sbin/start-thriftserver.sh\--master yarn \--hiveconf hive.server2.thrift.bind.host=hadoop102 \ ##默认-–hiveconf hive.server2.thrift.port=10000 \ ##默认

使用beeline

bin/beeline

# 然后输入!connect jdbc:hive2://hadoop102:10000

# 然后按照提示输入用户名和密码

利用第三方工具(如IDEA)连接

添加依赖

org.apac

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值