sparksql 操作hive_spark连接hive,使用sparksql处理hive中的数据

spark连接到hive首先要先配置3个文件,放到idea的resource目录下,如下:

core-site.xml

从集群环境中拉下来。

hdfs-site.xml

从环境中拉下来

hive-site.xml:

hive.exec.scratchdir

/user/hive/tmp

hive.metastore.warehouse.dir

/user/hive/warehouse

hive.querylog.location

/user/hive/log

hive.metastore.uris

thrift://knowyou-hdp-02:9083

javax.jdo.option.ConnectionURL

jdbc:mysql://knowyou-hdp-01:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false

javax.jdo.option.ConnectionDriverName

com.mysql.jdbc.Driver

javax.jdo.option.ConnectionUserName

hive

javax.jdo.option.ConnectionPassword

hive

pom文件配置,与集群环境一致

org.apache.spark

spark-sql_2.11

2.2.0

org.apache.spark

spark-hive_2.11

2.2.0

compile

org.apache.spark

spark-core_2.11

2.2.0

程序测试:成功

object SparkHive {

def main(args: Array[String]): Unit = {

val spark = SparkSession

.builder()

.master("local[*]")

.appName("aaa")

.enableHiveSupport()

.getOrCreate()

spark.sparkContext.setLogLevel(LogLevel.ERROR.toString)

val sql = "select * from default.sparkdemo"

spark.sql(sql).show()

}

}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值