Hive中DML数据操作

本文详细介绍了在Hive中进行数据操作的方法,包括数据导入:使用LOAD、INSERT、AS SELECT以及通过LOCATION创建表;数据导出:INSERT导出、Hadoop命令导出、Hive Shell命令导出、EXPORT和Sqoop导出;以及清除表数据的TRUNCATE命令。内容涵盖各种场景下的数据操作技巧。
摘要由CSDN通过智能技术生成

1.数据导入

1)向表中装载数据(load)

语法



  • load data [local] 
     


  • inpath '/opt/module/datas/student.txt' 
     


  • [overwrite] 
     


  • into table student 
     


  • [partition (partcol1=val1,…)];

     

    load data:表示加载数据
    local:表示从本地加载数据到hive表;否则从HDFS加载数据到hive表
    inpath:表示加载数据的路径
    into table:表示加载到哪张表
    student:表示具体的表
    overwrite:表示覆盖表中已有数据,否则表示追加
    partition:表示上传到指定分区

2)通过查询语句向表中插入数据(Insert)

基本插入数据



  • insert into table student 
     


  • partition(month='201709') 
     


  • values('1004','wangwu');

     

基本模式插入(根据单张表查询结果)



  • insert overwrite table student 
     


  • partition(month='201708')
     


  • select id, name from student 
     


  • where month='201709';

     

多插入模式(根据多张表查询结果)



  • from student
     


  • insert overwrite table student partition(month='201707')
     


  • select id, name where month='201709'
     


  • insert overwrite table student partition(month='201706')
     


  • select id, name where month='201709';

     

3)查询语句中创建表并加载数据(As Select)

create table if not exists student1 as select id,name from student;

4)创建表时通过Location指定加载数据路径

创建表,并指定在hdfs上的位置



  • create table if not exists student1(
     


  • id int, 
     


  • name string
     


  • )
     


  • row format delimited fields terminated by '\t'
     


  • location '/user/hive/warehouse/student1';

     

上传数据到hdfs上

dfs -put /opt/module/datas/student.txt  /user/hive/warehouse/student1;

5)import数据到指定Hive表中

先用export导出后,再将数据导入



  • import table student2 
     


  • partition(month='201709') 
     


  • from '/user/hive/warehouse/export/student';

     

2.数据导出

1)insert导出

将查询的结果导出到本地



  • insert overwrite local directory '/opt/module/datas/export/student'
     


  • select * from student;

     

将查询的结果格式化导出到本地



  • insert overwrite local directory '/opt/module/datas/export/student1'
     


  • row format delimited fields terminated by '\t' collection items terminated by '\n'
     


  • select * from student;

     

将查询的结果导出到HDFS上(没有local)



  • insert overwrite directory '/user/atguigu/hive/warehouse/student2'
     


  • row format delimited fields terminated by '\t' collection items terminated by'\n'
     


  • select * from student;

     

2)Hadoop命令导出到本地

dfs -get /user/hive/warehouse/student/month=201709/000000_0  /opt/module/datas/export/student1.txt;

3)Hive Shell 命令导出

bin/hive -e 'select * from default.student;' > /opt/module/datas/export/student1.txt;

4)export导出到HDFS上



  • export table default.student 
     


  • to '/user/hive/warehouse/export/student';

     

5)Sqoop导出

3.清除表中数据(Truncate)

truncate table student;

这里Truncate只能删除管理表,不能删除外部表中数据

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值