在spark-2.2.x中操作hive的表数据的流程

环境:centos6.5 hadoop  伪分布式 ,spark 伪分布式   安装hive 

在window下面。在idea中,通过程序去操作hive中的表。

 

需要把linux上面spark安装目录下面/conf里面的hive-site.xml的文件放到window下面idea中当前project中 的resources文件夹下面。

并且配置log4j.properties文件。方便查看控制台日志。

由于2.0之后的版本spark把sqlContext和hiveContext都放到SparkSession里面了。按照下面的方式来创建hiveContext对象

下面就可以愉快的操作hive了。

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值