-
首先需要有MYSQL之类的关系型数据库
-
要有HADOOP集群
-
将hive的解压包移动到hadoopservice目录下
-
配置环境变量
export HIVE_HOME=/hadoopserver/apache-hive-2.1.1-bin
:$HIVE_HOME/bin -
刷新
source /etc/profile
-
在conf文件中
使用命令 cp hive-default.xml.template hive-site.xml
cp hive-env.sh.template hive-env.sh
-
在hive的根目录创建temp文件,并授权
mkdir temp chmod 777 temp
-
将hive-site.xml文件中的${system:java.io.tmpdir}修改为/hadoopserver/apache-hive-2.1.1-bin/temp,有四处;搜索文件中的
${system:user.name}将system:去掉,有三处。
例子:
-
在hadoop上创建warehouse
依照下面这张表:
10.hive-env.sh配置
11.移动msyql的驱动包
- 初始化数据库
bin/schematool -initSchema -dbType mysql
14. stop-all.sh关闭hadoop
- 重启hadoop,
start-all.sh
- hive目录下测试
bin/hive --service hiveserver2 &
和bin/beeline -u jdbc:hive2://localhost:10000
- 创建库
- 建表,hive进入
- 建立完表之后,show tables,去hadoop下查看下
20.导入数据 ,从本地指定路径导入数据
load data local inpath '/home/hadoop/student_1' into table scott.student;
21**.建库和建表实际上是在HDFS当中,创建了对应的目录;数据需要上传,上传数据文件到对应库和表的目录下;HIVE的查询,本质还是MR执行**