Hive 环境配置 详解

1、由于hive依赖于Hadoop框架,所以首先启动Hadoop相关守护进程
注 : 需要先安装 Hadoop
-> namenode $ sbin/hadoop-daemon.sh start namenode
-> datanode $ sbin/hadoop-daemon.sh start datanode
-> Resourcemanager $ sbin/yarn-daemon.sh start resourcemanager
-> nodemanager $ sbin/yarn-daemon.sh start nodemanager
-> historyserver $ sbin/mr-jobhistory-daemon.sh start historyserver

2、上传hive安装包到系统,在解压安装包
$ tar -zxf apache-hive-0.13.1-bin.tar.gz -C /opt/modules/
$ cd /opt/modules/hive-0.13.1-bin // 此处的 Hive 文件已被重命名

3、在HDFS上创建对应的目录,并赋予权限
$ cd /opt/modules/hadoop-2.5.0
$ bin/hdfs dfs -mkdir /tmp
$ bin/hdfs dfs -mkdir -p /user/hive/warehouse
$ bin/hdfs dfs -chmod g+w /tmp
$ bin/hdfs dfs -chmod g+w /user/hive/warehouse
注: hadoop fs 在 Hadoop1.x 系列版本中使用的命令
metadata -> 元数据
表和数据的关联 -> 都需要存储
数据库和表
元数据默认存储在 -> Derby数据库
一般公司都存储在关系型数据库中: mysql oracle
/user/hive/warehouse -> 数据仓库目录 -> 保存 hive所有的数据

4、.template代表不启用,不生效的文件
$ cd /opt/modules/hive-0.13.1-bin
$ cd conf/
$ ls


5、hive-default.xml 包含了 hive所有的配置项,hive.metastore.warehouse.dir代表hive在HDFS上的默认目录路径
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>


6、修改 hive-env.sh.template,将template去掉

1> 指定 Hadoop 的工作目录路径
HADOOP_HOME=/opt/modules/hadoop-2.5.0

2> 指定用户自定义文件的所在目录路径:
export HIVE_CONF_DIR=/opt/modules/hive-0.13.1-bin/conf


7、启动hive
$ cd /opt/modules/hive-0.13.1-bin
$ bin/hive
hive提供了一个可以交互的shell命令行


8、创建一张表
create table student(
num int,
name string
) row format delimited fields terminated by'\t';
注: hive 的命令行中不允许出 Tab键


-> 需要指定分隔符,让数据文件与表的结构对应
->创建一个测试文件

-> 加载数据
load data local inpath '/opt/datas/student.txt' into table student;


  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值