Hive on Spark

一.Spark安装过程比较简单:
1.直接上传解压安装包
tar -zxvf spark-1.6.1-bin-hadoop2.6.tgz
mv spark-1.6.1-bin-hadoop2.6.tgz spark-1.6.1

2.cd /usr/local/spark-1.6.1/conf/
mv spark-env.sh.template spark-env.sh
vi spark-env.sh
在该配置文件中添加如下配置
export JAVA_HOME=/usr/java/jdk1.7.0_79
export SPARK_MASTER_IP=minimaster
export SPARK_MASTER_PORT=7077
保存退出
重命名并修改slaves.template文件
mv slaves.template slaves
vi slaves
在该文件中添加子节点所在的位置(Worker节点)
miniSlave1
miniSlave2
保存退出

将配置好的Spark拷贝到其他节点上
scp -r /usr/local/spark-1.6.1 miniSlave1:/usr/local/
scp -r /usr/local/spark-1.6.1 miniSlave2:/usr/local/

Spark集群配置完毕,目前是1个Master,2个Work,在minimaster上启动Spark集群
/usr/local/spark-1.6.1/sbin/start-all.sh

二.Hive on Spark
把hadoop中的core-site.xml 和 hive中的hive-site.xml中配置cp 至Spark中的conf目录下
eg:
cp /usr/local/hive-1.2.1/conf/hive-site.xml /usr/local/spark-1.6.1/conf/
注:将hadoop中的高可用修改成普通集群
vi core-site.xml

  <property>
        <name>fs.defaultFS</name>
       <value>hdfs://minimaster:9000</value>
   </property>

步骤跟踪:
core-site配置

cd /usr/local/spark-1.6.1/bin/
bin:

./spark-sql \
--master spark://minimaster:7077 \
--executor-memory 512m \
--total-executor-cores 2 \
--driver-class-path /usr/local/mysql-connector-java-5.1.6-bin.jar

步骤跟踪:
运行启动

hive在Spark上的简单操作:
1.建表:
create table person(
id int,name string,age int, fv int
)
row format delimited fields terminated by “,”
;
步骤跟踪:
建表

2.加载数据:
load data local inpath”/home/person.txt” into table person
加载数据
数据上传至 /usr/hive/warehouse/person中
可以直接在hadoop高可用上查询:

3.查询数据:
select name,age,fv from person where age > 20 order by fv;
步骤跟踪:
查询数据
结果展示:
结果展示

4.删除
drop table person;
删表

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值