如何使用Spark连接Hive

使用Spark连接Hive获取数据

一、在连接前,先保证服务器端的运行环境正常

1、Linux窗口输入start-all.sh启动hadoop环境
2、再输入 hive --service metastore & 启动hive服务
在这里插入图片描述

3、在Linux窗口输入jps检查服务是否都启动
在这里插入图片描述

RunJar代表hive服务已启动

二、使用以下代码连接hive
import org.apache.spark.sql.SparkSession

object sparkToHive {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder().appName("toHive").master("local[*]")
									    //后面是连接自己hive的地址
      .config("hive.metastore.uris", "thrift://192.168.150.100:9083")
      .enableHiveSupport() //  连接hive的时候就加上这条
      .getOrCreate()
      
    val employeeDF = spark.sql("select * from test1.stu")
	//打印表结构
    employeeDF.printSchema()
    //获取数据
    employeeDF.show()

  }
}

运行结果如下

root
 |-- name: string (nullable = true)
 |-- id: integer (nullable = true)

+------+---+
|  name| id|
+------+---+
|wangwu|  1|
+------+---+

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值