Hadoop大数据开发__Spark SQL和Hive集成离线读取数据

1、前面几篇文章已经完成了Hive和Spark的安装,下面进行这两部分的集成
2、修改hive-site.xml

cd /home/hadoop/app/hive/conf
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://hadoop03:9083</value>
  </property>

3、复制mysql驱动到spark的jars包下

mysql-connector-java-5.1.35.jar

4、修改spark-env.sh

HADOOP_CONF_DIR=/home/hadoop/app/hadoop/etc/hadoop

5、Hive创建数据库和表,以及准备数据

cd /home/hadoop/app/hive/bin
hive
create database kfk #创建数据库
use kfk #切换数据库
create table if not exists test(userid string, username string) 
row format delimited fields terminated by ' ' stored as textfile; #创建表

6、准备数据

cd /hom/hadoop/data
vi kfk.txt
0001 hadoop
0002 yarn
0003 hbase
0004 hive
0005 spark
0006 mysql
0007 flume
load data local inpath "/hom/hadoop/data/kfk.txt" into table test; 

7、启动hive中的metastore服务

cd /home/hadoop/app/hive/bin
hive --service metastore

8、spark-sql测试(也可以用spark-shell执行测试)

cd /home/hadoop/app/spark/bin
spark-sql #用spark-sql测试
show databases
use kfk
show tables
select * from test
spark-shell #用spark-shell测试
spark.sql("select * from kfk.test").show
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值