01hive安装

1.传入
下载“apache-hive-1.2.1-bin.tar.gz”和“mysql”传入虚拟机。
2.解压、改名(可省)
tar -zxvf apache-hive-1.2.1-bin.tar.gz -C app/
mv apache-hive-1.2.1-bin/ hive/
3.环境变量
vi /etc/profile
	export HIVE_HOME=/root/app/hive/
	export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
source /etc/profile
使用Tab验证
4.为其配置hadoop环境
cd /root/app/hive/conf
cp hive-env.sh.template hive-env.sh
使用 echo $HADOOP_HOME 找到hadoop的安装地址。

vi hive-env.sh
	将HADOOP_HOME的注释解开,并改为:HADOOP_HOME=/root/app/hadoop-2.8.3
	告诉他文件夹在哪:export HIVE_CONF_DIR=/root/app/hive/conf
5.启动

首先启动Hadoop集群 start-dfs.sh

cd app/hive
bin/hive     进入使用hive界面
	出现“hive>”即为成功
6.简单使用

1.只有一个default默认库

2.创建表有所不同,不用var而使用string
create table student(id int,name string);

3.插入信息,走mapreduce路线
insert into student values(1,“hao”);

4.查询信息,没有mapreduce
select * from student;

5.看表的结构
desc student;

6.退出hive
quit;

7.将本地文件导入hive案例

1.创建一个专门存储数据的目录
mkdir hivedata

2.写一个数据
vi student.txt

3.上传至hadoop
load data local inpath “/root/hivedata/student.txt” into table student;

4.将txt中内容插入表中,会因为格式不同而无法成功,需要重新创建一个格式的表
create table student(id int,name string) row format delimited fields terminated by “\t”;

5.现在就可以上传插入啦
load data local inpath “/root/hivedata/student.txt” into table student;

6.查询验证
select * from student;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

hao难懂

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值