1. export方式
export table tb_name to 'HDFS_PATH';
- 表中的信息
export table tb_log to '/log';
导出后 有元数据 还有表数据
2. 如果数据是普通的文本数据 在shell客户端使用get下载数据
在hdfs中查看数据
hdfs dfs -get /user/hive/warehouse/tb_local/location.txt
3. 使用sql语句
3.1
hive -e "use database;select * from table_name;"
- 表的信息
hive -e "use default;select * from tb_log;"
3.2
hive -f a.sql
- 编写一个shell脚本
- 使用shell命令
hive -f a.sql
4. sqoop dataX 数据迁移工具
5. insert
将查询的结构数据保存在本地的目录中
0: jdbc:hive2://linux01:10000> insert overwrite local directory '/data' select * from tb_log;
- 表内的数据存储在本地
将查询的结构数据保存在HDFS目录中
0: jdbc:hive2://linux01:10000> insert overwrite directory '/log'
. . . . . . . . . . . . . . .> select * from tb_log;
- 查询的数据被存在hdfs上