1.传入
下载“apache-hive-1.2.1-bin.tar.gz”和“mysql”传入虚拟机。
2.解压、改名(可省)
tar -zxvf apache-hive-1.2.1-bin.tar.gz -C app/
mv apache-hive-1.2.1-bin/ hive/
3.环境变量
vi /etc/profile
export HIVE_HOME=/root/app/hive/
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
source /etc/profile
使用Tab验证
4.为其配置hadoop环境
cd /root/app/hive/conf
cp hive-env.sh.template hive-env.sh
使用 echo $HADOOP_HOME 找到hadoop的安装地址。
vi hive-env.sh
将HADOOP_HOME的注释解开,并改为:HADOOP_HOME=/root/app/hadoop-2.8.3
告诉他文件夹在哪:export HIVE_CONF_DIR=/root/app/hive/conf
5.启动
首先启动Hadoop集群 start-dfs.sh
cd app/hive
bin/hive 进入使用hive界面
出现“hive>”即为成功
6.简单使用
1.只有一个default默认库
2.创建表有所不同,不用var而使用string
create table student(id int,name string);
3.插入信息,走mapreduce路线
insert into student values(1,“hao”);
4.查询信息,没有mapreduce
select * from student;
5.看表的结构
desc student;
6.退出hive
quit;
7.将本地文件导入hive案例
1.创建一个专门存储数据的目录
mkdir hivedata
2.写一个数据
vi student.txt
3.上传至hadoop
load data local inpath “/root/hivedata/student.txt” into table student;
4.将txt中内容插入表中,会因为格式不同而无法成功,需要重新创建一个格式的表
create table student(id int,name string) row format delimited fields terminated by “\t”;
5.现在就可以上传插入啦
load data local inpath “/root/hivedata/student.txt” into table student;
6.查询验证
select * from student;