1:Insert导出
1.1:将查询的结果导出到本地
hive (default)> insert overwrite local directory
'/opt/hive/data/export/student'
select * from student;
1.2:将查询的结果格式化导出到本地
hive(default)>insert overwrite local directory
'/opt/hive/data/export/student1'
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
select * from student;
1.3:将查询的结果导出到hdfs上,没有local,没有local就是在hdfs,有local就是本地
hive (default)> insert overwrite directory '/user/atguigu/student2'
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
select * from student;
2:Hadoop命令导出到本地
hive (default)> dfs -get /user/hive/warehouse/student/student.txt
/opt/module/data/export/student3.
3:Hive Shell命令导出
[atguigu@hadoop102 hive]$ bin/hive -e 'select * from default.student;' >
/opt/hive/data/export/student4.txt;
4:export导出到hdfs上
(defahiveult)> export table default.student 这个表不能存在,
to '/user/hive/warehouse/export/student'; 这个路径可以自动创建
import的问题,一是路径必须是export对应的路径,二是表要么不存在要么是空表
5:sqoop导出
6:清除表中数据(Truncate)
hive (default)> truncate table student;
Truncate只能删除内部表,不能删除外部表中数据,Truncate只删hdfs数据,不删除元数据