一、创建数据库(在hive中)
create database '数据库名';
二、创建数据表 (在hive中)
create table t_student(id int,name varchar(255)) ROW FORMAT DELIMITED FIELDS
TERMINATED BY ',';
TERMINATED BY ------> 指定分隔符
三、上传数据到虚拟机
将Windows的数据(也就是.csv或.txt等后缀名的文件)拖动到xftp5上的\opt目录
并在linux系统中输入以下代码:
cd /opt
hadoop fs -put /opt/t_student.csv /user
/user 则是你要上传到hadoop的目录名
四、使用load将数据加载在表中(在hive中)
load data inpath '/user/t_student.csv' into table t_student;
成功后会提示ok
五、查看数据(在hive中)
select * from '表名';