hive:table表中的数据的导出导出几种方式(DML数据操作)

导入:

  1. 本地文件导入到Hive表;
  2. Hive表导入到Hive表;
  3. HDFS文件导入到Hive表;
  4. 创建表的过程中从其他表导入;
  5. 通过sqoop将mysql库导入到Hive表

导出:

  1. Hive表导出到本地文件系统;
  2. Hive表导出到HDFS;
  3. 通过sqoop将Hive表导出到mysql库;
  4. .Hadoop命令导出到本地
  5. Export导出到HDFS上

 

Hive数据导出的几种方式:

1。Insert导出
1).将查询的结果导出到本地
hive (default)> insert overwrite local directory '/opt/module/datas/export/student'
            select * from student;
指定导出格式(此种方式导出的数据不一定可用,可能还是textfile格式):
insert overwrite directory '/aaa/bb' stored as xxx select ...

2).将查询的结果格式化导出到本地
hive(default)>insert overwrite local directory '/opt/module/datas/export/student1'
           ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'             select * from student;
hive(default)>insert overwrite local directory '/opt/module/datas/export/student1'
           ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'     collection items terminated by '\n'     select * from student;

3).将查询的结果导出到HDFS上(没有local)
hive (default)> insert overwrite directory '/user/atguigu/student2'
             ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' 
             select * from student;
2. Hadoop命令导出到本地
hive (default)> dfs -get /user/hive/warehouse/student/month=201709/000000_0
/opt/module/datas/export/student3.txt;
3. Hive Shell 命令导出
基本语法:(hive -f/-e 执行语句或者脚本 > file)
[root@sparkproject1 hive]$ bin/hive -e 'select * from default.student;' >
 /opt/module/datas/export/student4.txt;
4. Export导出到HDFS上
(defahiveult)> export table default.student to
 '/user/hive/warehouse/export/student';
export和import主要用于两个Hadoop平台集群之间Hive表迁移。
5. Sqoop导出

 

实例:

1.hive shell

   1) 导出到本地目录

1.登录hive shell
hive (default)> 

2.use 数据库;

3.指定本地目录并导出
INSERT OVERWRITE LOCAL DIRECTORY '/user/local/hive/table-daochu' ROW FORMAT DELIMITED FIELDS TERMINATED by ',' select * from o.aim_base_employees;

查看数据结果:

-rw-r--r-- 1 root root 11132487 Feb 10 17:03 000000_0     //产生的结果存放在文件名为:000000_0。
[root@pf-bigdata1 table-daochu]# 

可以使用editplus打开查看
   2)导出到HDFS

导入到HDFS和导入本地文件类似,去掉HQL语句的LOCAL就可以了

INSERT OVERWRITE DIRECTORY '/user/local/hive/table-daochu' ROW FORMAT DELIMITED FIELDS TERMINATED by ',' select * from o.aim_base_employees;

查看hfds输出文件:

[hadoop@hadoopcluster78 bin]$ ./hadoop fs -cat /home/hadoop/output/000000_0 

2.采用hive的-e和-f参数来导出数据。

参数为: -e 的使用方式,后面接SQL语句。>>后面为输出文件路径

hive -e "select * from o.aim_base_employees" >> /user/local/hive/table-daochu/test.txt

参数为: -f 的使用方式,后面接存放sql语句的文件。>>后面为输出文件路径

testsql0.sql文件内容:

select * from o.aim_base_employees limit 1000;

执行:
hi
  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
智慧校园整体解决方案是响应国家教育信息化政策,结合教育改革和技术创新的产物。该方案以物联网、大数据、人工智能和移动互联技术为基础,旨在打造一个安全、高效、互动且环保的教育环境。方案强调从数字化校园向智慧校园的转变,通过自动数据采集、智能分析和按需服务,实现校园业务的智能化管理。 方案的总体设计原则包括应用至上、分层设计和互联互通,确保系统能够满足不同用户角色的需求,并实现数据和资源的整合与共享。框架设计涵盖了校园安全、管理、教学、环境等多个方面,构建了一个全面的校园应用生态系统。这包括智慧安全系统、校园身份识别、智能排课及选课系统、智慧学习系统、精品录播教室方案等,以支持个性化学习和教学评估。 建设内容突出了智慧安全和智慧管理的重要性。智慧安全管理通过分布式录播系统和紧急预案一键启动功能,增强校园安全预警和事件响应能力。智慧管理系统则利用物联网技术,实现人员和设备的智能管理,提高校园运营效率。 智慧教学部分,方案提供了智慧学习系统和精品录播教室方案,支持专业级学习硬件和智能化网络管理,促进个性化学习和教学资源的高效利用。同时,教学质量评估中心和资源应用平台的建设,旨在提升教学评估的科学性和教育资源的共享性。 智慧环境建设则侧重于基于物联网的设备管理,通过智慧教室管理系统实现教室环境的智能控制和能效管理,打造绿色、节能的校园环境。电子班牌和校园信息发布系统的建设,将作为智慧校园的核心和入口,提供教务、一卡通、图书馆等系统的集成信息。 总体而言,智慧校园整体解决方案通过集成先进技术,不仅提升了校园的信息化水平,而且优化了教学和管理流程,为学生、教师和家长提供了更加便捷、个性化的教育体验。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值