安装:
----------------------------------------------
1.安装JDK和HADOOP
2.官网下载稳定版
3.解压到/soft/下
tar -xzvf apache-hive.tar /soft/
4.为了方便管理,建立伪链接
ln -s hive.xxx hive
5.配置环境变量
#编辑环境变量
vi /etc/environment
#添加HIVE环境变量
HIVE_HOME=/soft/hive/
path=....:/soft/hive/bin
#保存后让环境变量生效,或者重启
source /etc/environment
6.查看版本(首先要启动hadoop)
hive --version
·
7.配置hive的元数据库
hive使用rdbms存储元数据,内置了derby数据库
复制hive/conf/hive-default.xml.template为hive-site.xml
替换${system:java.io.tmpdir}/${system:user.name}为具体的目录
复制hive/conf/log4j2.properties.template log4j2.properties
修改日志存放路径
8.使用
1>.启动hadoop
2>.初始化数据库
$>hive/bin schematool -initSchema -dbType derby
3>.完成后会再当前目录创建一个文件夹metastore_db(元数据库)
4>.进入hive shell
注意:使用Hive命令的时候,必须在metastore_db所在文件夹,否则会报错
$>hive
9.hive原理
Hive数据库中只是存放schema文件,真正的数据文件还是存放到了hdfs中
使用sql查询数据的时候,会根据schema文件对应数据文件,当语句中有查询
条件的时候,会进行mapreduce任务