sparksql 操作hive_Spark SQL - Hive表

本文介绍了如何在Spark Shell中使用HiveContext操作Hive表。通过HiveContext,可以创建和查询Hive表,如创建名为employee的表,加载employee.txt数据并进行查询。示例展示了如何初始化HiveContext,创建表,加载数据以及执行SQL查询来展示记录。
摘要由CSDN通过智能技术生成

Hive与Spark库捆绑为HiveContext,它继承自SQLContext。 使用HiveContext,您可以在HiveMetaStore中创建和查找表,并使用HiveQL在其上写入查询。 没有现有Hive部署的用户仍然可以创建HiveContext。 当未由hive-site.xml配置时,上下文会自动在当前目录中创建名为metastore_db的元数据库和名为warehouse的文件夹。

参考以下案例使用Hive表完成雇员记录。 所有记录的数据都在名为employee.txt的文本文件中。 这里,我们将首先初始化HiveContext对象。 使用它,我们将创建一个表,使用HiveQL语言将雇员记录数据加载到其中,并对其应用一些查询。

employee.txt - 将其放在spark-shell正在运行的当前目录中。

1201, satish, 25

1202, krishna, 28

1203, amith, 39

1204, javed, 23

1205, prudvi, 23启动Spark Shell

首先,我们必须启动Spark Shell。 使用HiveTables意味着我们正在处理Hive MetaStore。 因此,系统将自动创建用于存储表数据的仓库。 因此,最好在超级用户上运行Spark Shell。 请参考以下命令。

$ su

password:

#spark-shell

scala>

创建SQLContext对象

使用以下命令将HiveContext初始化到Spark Shell中。

scala> val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值