spark mysql hive_macOS下Spark SQL与Hive MySQL集成

本文介绍了如何在MacOS环境下,将Spark SQL与Hive、MySQL和HBase进行集成。首先,详细阐述了Spark SQL与Hive集成的步骤,包括配置hive-site.xml和添加JDBC驱动。接着,展示了启动Hive metastore服务、使用Spark SQL通过`spark-shell`和`spark-sql`执行Hive查询的过程。然后,提到了通过ThriftServer和Beeline访问Spark SQL的方法。最后,讲解了Spark SQL连接MySQL和HBase的配置及数据读取操作。
摘要由CSDN通过智能技术生成

1 Spark SQL 与Hive集成(spark-shell)

Spark SQL is Apache Spark's module

for working with structured data.

使用Spark SQL访问Hive需要将$HIVE_HOME/conf下的hive-site.xml拷贝到$SPARK_HOME/conf下

1720f8086666?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

如果集群没有安装hive那么就在$SPARK_HOME/conf下创建一个hive-site.xml,再配置一下可以访问metadata即可

同时添加metastore的url配置

执行操作: vi hive-site.xml,添加如下内容

1720f8086666?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

拷贝hive中的mysql-connector-java-5.1.27-bin.jar包到 spark 的 jars目录下

2 启动服务

2.1 检查MySQL是否启动

2.2 启动hive metastore服务

bin/hive --service metastore

1720f8086666?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

2.3 启动Hive

hive

进入hive命令行

1720f8086666?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

2.4 创建本地文件 javaedge.txt

1720f8086666?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

2.5 执行 Hive 语句

1720f8086666?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

1720f8086666?utm_campaign=maleskine&utm_content=note&utm_medium=seo_notes&utm_source=recommendation

2.6 启动 spark-shell

bin/spark-shell,进入spark-shell中,执行操作,返回结果

spark.sql("select * from kfk.test").show

0001 spark

0002 hive

0003 hbase

0004 hadoop

二、Spark SQL 与Hive集成(spark-sql)

1)启动spark-sql,进入该命令行

bin/spark-sql

2)查看数据库

show databases;

default

kfk

3)使用数据库,并查询表

使用数据库

use kfk

查看表

show tables;

查看表数据

select * from test;

三、Spark SQL之ThriftServer和beeline使用

1)启动ThriftServer

sbin/start-thriftserver.sh

2)启动beeline

bin/beeline !connect jdbc:hive2://node1:10000

# 查看数据库

show databases;

# 查看表数据

select * from kfk.test;

四、Spark SQL与MySQL集成

1)启动spark-shell,进入shell命令行

sbin/spark-shell

2)spark-shell命令行中输入 :paste 可以输入整段命令

val jdbcDF = spark

.read

.format("jdbc")

.option("url", "jdbc:mysql://node1:3306/test")

.option("dbtable", "spark1")

.option("user", "root")

.option("password", 1234)

.load()

输入 ctr+d退出整段输入,打印读取数据

jdbcDF.show

五、Spark SQL与HBase集成

Spark SQL与HBase集成,其核心就是Spark Sql通过hive外部表来获取HBase的表数据。

1)拷贝HBase的包和hive包到 spark的 lib目录下

2)启动spark-shell,进入命令行

bin/spark-shell

val df =spark.sql("select count(1) from weblogs").show

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值