Hive导入/导出 : 创建分区表及分区表导入csv文本文件数据

1、csv导入分区表

基本思路:分别创建两个表,一张是分区表,另一张是非分区表,表结构相同;再通过insert语句将非分区表的数据插入到分区表1。

要注意是,分区表的插入分两种:静态插入和动态插入。在一般情况下,Hive不建议直接使用动态插入2,所以有个默认情况下是不允许使用动态分区插入:hive.exec.dynamic.partition=false;但在Hive 0.9.0及之后的版本,上述参数默认为true,虽然如此却有另一个参数约束着动态分区插入:hive.exec.dynamic.partition.mode=strict,动态分区插入的模式默认为严格模式,在严格模式下,插入操作需要指定一个特定的静态分区。所以如果在从非分区表select出来并insert到分区表中,就需要设置这两个参数。

# 创建分区表
create table table_partitioned (col1 string, col2 int) 
  partitioned by (month int) 
  row format delimited fields terminated by ',' lines terminated by '\n' 
  stored as textfile;
# 创建非分区表
create table table_unpartitioned (col1 string, col2 int, month int) 
  row format delimited fields terminated by ',' lines terminated by '\n' 
  stored as textfile;
# 导入csv文本文件
load data local inpath '/path/to/file' into table table_unpartitioned;
# 设置允许动态分区插入,并动态分区插入模式为非严格模式
SET hive.exec.dynamic.partition = true;
SET hive.exec.dynamic.partition.mode = nonstrict;
# 插入到分区表
insert into table table_partitioned partition(month) select * from table_unpartitioned;

2、hive导出csv

hive中在创建表时,一般会根据导入的数据格式来指定字段分隔符和列分隔符。一般导入的文本数据字段分隔符多为逗号分隔符或者制表符(但是实际开发中一般不用着这种容易在文本内容中出现的的符号作为分隔符),当然也有一些别的分隔符,也可以自定义分隔符。有时候也会使用hive默认的分隔符来存储数据。

hive (fdm_sor)> create table fdm_sor.mytest_tmp2(
              >  id int comment'编号',
              >  name string comment '名字'
              >  );
hive (fdm_sor)> show create table mytest_tmp2;
CREATE  TABLE `mytest_tmp2`(
  `id` int COMMENT '编号', 
  `name` string COMMENT '名字')
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe' --hive默认的分割方式,即行为\n,列为^A
STORED AS INPUTFORMAT 
  'org.apache.hadoop.mapred.TextInputFormat'    --hive默认的存储格式为textfile
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION                                    --内部表的默认的存储路径
  'hdfs://hadoop102:9000/user/hive/warehouse/fdm_sor.db/mytest_tmp2'
TBLPROPERTIES (
  'transient_lastDdlTime'='1526176805')
hive (fdm_sor)> create table  fdm_sor.mytest_tmp3(
              >   id int comment'编号',
              >  name string comment '名字'
              >  )
              >  row format delimited fields terminated by '\001'  --这里可以指定别的分隔符,如‘\t’,'$'等分隔符
              >  lines terminated by '\n'
              >  stored as textfile;
 
hive (fdm_sor)> show create table fdm_sor.mytest_tmp3;
OK
createtab_stmt
CREATE  TABLE `fdm_sor.mytest_tmp3`(
  `id` int COMMENT '编号', 
  `name` string COMMENT '编号')
ROW FORMAT DELIMITED 
  FIELDS TERMINATED BY '\u0001' 
  LINES TERMINATED BY '\n' 
STORED AS INPUTFORMAT 
  'org.apache.hadoop.mapred.TextInputFormat' 
OUTPUTFORMAT 
  'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat'
LOCATION
  'hdfs://hadoop102:9000/user/hive/warehouse/fdm_sor.db/mytest_tmp3'
TBLPROPERTIES (
  'transient_lastDdlTime'='1526176859')

如上可以看出hive默认的列分割类型为org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe,而这其实就是A分隔符,hive中默认使用A(ctrl+A)作为列分割符,如果用户需要指定的话,等同于row format delimited fields terminated by ‘\001’,因为^A八进制编码体现为’\001’.所以如果使用默认的分隔符,可以什么都不加,也可以按照上面的指定加‘\001’为列分隔符,效果一样。

hive默认使用的行分隔符是’\n’分隔符 ,也可以加一句:LINES TERMINATED BY ‘\n’ ,加不加效果一样。但是区别是hive可以通过row format delimited fields terminated by '\t’这个语句来指定不同的分隔符,但是hive不能够通过LINES TERMINATED BY '$$'来指定行分隔符,目前为止,hive的默认行分隔符仅支持‘\n’字符。否则报错。

hive (fdm_sor)>  create table  fdm_sor.mytest_tm4(
              >   id int comment'编号',
              >  name string comment '名字'
              >  )
              >  lines terminated by '\t';
FAILED: ParseException line 5:1 missing EOF at 'lines' near ')'

一般来说hive的默认行分隔符都是换行符,如果非要自定义行分隔符的话,可以通过自定义Inputformat和outputformat类来指定特定行分隔符和列分隔符,一般公司实际开发中也都是这么干的,具体使用,见后面博客。
一般来说hive的默认行分隔符都是换行符,如果非要自定义行分隔符的话,可以通过自定义Inputformat和outputformat类来指定特定行分隔符和列分隔符,一般公司实际开发中也都是这么干的,具体使用,见后面博客。
当然如hive中集合数据类型struct ,map,array,也都有默认的字段分隔符,也都可以指定字段分隔符。hive中对于上述三个集合数据类型的默认字段分隔符是^B,八进制体现为‘\002’,用collection items terminated by '\002’语句来指定分隔符,对于map来说,还有键值之间的分割符,可以用map keys terminated by ‘\003’(^C)来指定分隔符。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 第1关的任务是将文件中的数据导入Hive表中。这可以通过使用Hive的LOAD命令来完成。首先需要创建一个Hive表,然后使用LOAD命令将文件中的数据加载到该表中。具体步骤如下: 1. 创建Hive表:使用CREATE TABLE语句创建一个Hive表,指定表的列名和数据类型。 2. 准备数据文件:将需要导入数据保存到一个文本文件中,每行数据对应表中的一条记录。 3. 使用LOAD命令导入数据:使用LOAD命令将数据文件中的数据导入Hive表中。 例如,以下是一个简单的示例: CREATE TABLE my_table ( id INT, name STRING, age INT ); LOAD DATA LOCAL INPATH '/path/to/data/file' INTO TABLE my_table; 其中,my_table是要创建Hive表的名称,id、name和age是表的列名和数据类型。LOAD命令将数据文件中的数据导入到my_table表中。需要注意的是,数据文件的路径应该是本地文件系统的路径,而不是HDFS路径。如果数据文件在HDFS上,可以使用LOAD命令的其他选项来指定HDFS路径。 ### 回答2: 将文件中的数据导入Hive表中,需要以下几个步骤: 1. 创建Hive表 首先,需要在Hive创建一张表,表的结构需要和待导入的文件的结构保持一致,即表中的各列需要和文件中的各列相对应。可以使用Hive的CREATE TABLE语句创建表,例如: CREATE TABLE mytable ( id INT, name STRING, age INT, gender STRING ); 2. 创建外部表 若待导入的文件已经存在于HDFS上,我们可以创建外部表来映射这些文件,这样导入数据时就不需要将文件先拷贝到Hive的仓库目录下。可以使用Hive的CREATE EXTERNAL TABLE语句创建外部表,例如: CREATE EXTERNAL TABLE my_ext_table ( id INT, name STRING, age INT, gender STRING ) LOCATION '/user/hadoop/data'; 其中,LOCATION参数指定了待导入的文件所在的HDFS路径。 3. 导入数据 数据可以使用LOAD DATA INPATH命令将数据导入Hive表中。例如: LOAD DATA INPATH '/user/hadoop/data/input.txt' INTO TABLE mytable; 其中,/user/hadoop/data/input.txt为待导入的文件的完整路径名,mytable为目标表的表名。可以使用相对路径或者HDFS URL指定待导入的文件。 导入过程中,Hive会自动识别文件中的分隔符、行终止符等信息,并将数据解析成表中的行。若文件中的列与表中的列不一致,导致解析失败,则可能会导致数据加载失败。 总的来说,将文件数据导入Hive表中的过程并不复杂,只需要在Hive创建一个表,创建一个外部表(可选),并使用LOAD DATA INPATH命令将文件数据导入即可。在导入过程中需要注意数据格式的一致性,以免导致解析失败。 ### 回答3: 在Hadoop生态系统中,Hive是一种基于Hadoop的数据仓库架构,它可以将结构化数据映射到Hadoop的分布式文件系统中。Hive是基于SQL的解决方案,允许用户使用SQL查询语句来操作存储在Hadoop集群中的数据。 第一关的任务是将文件中的数据导入Hive表中。首先,需要确保Hadoop和Hive已经正确地安装和配置。如果还没有安装和配置Hadoop和Hive,请先按照要求完成这些步骤。 一旦Hadoop和Hive都已准备好,就可以开始导入数据了。在这个任务中,你需要使用Sqoop工具来将MySQL数据库中的数据导入到Hadoop中。Sqoop是一个开放源代码工具,它可以在Hadoop和结构化数据存储(如RDBMS)之间传输数据。 下面是实现的步骤: 1. 创建一个目录,用于存储从MySQL导出数据。假设这个目录是“/user/hive/import”。 2. 运行Sqoop命令来导出MySQL数据库中的数据。假设这个命令的输出文件名为“myfile.txt”,并且输出的数据由“id”和“name”两列组成。Sqoop命令如下: sqoop export --connect jdbc:mysql://localhost/mydb --username myusername --password mypassword --table mytable --fields-terminated-by ',' --export-dir /user/hive/import --input-fields-terminated-by ',' --columns id,name --outdir /tmp 3. 运行Hive命令,创建一个表来存储上一步骤导出数据。命令如下: CREATE TABLE myhive (id INT, name STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ','; 4. 运行Hive命令,将“myfile.txt”中的数据加载到新创建的表中。命令如下: LOAD DATA INPATH '/user/hive/import/myfile.txt' INTO TABLE myhive; 至此,第一关的任务就完成了。现在你已经成功地将数据从MySQL导入Hive表中。你可以运行查询语句来检查表中的数据是否正确。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

盛世狼烟烟

你的鼓励将是我创作的最大动力

¥2 ¥4 ¥6 ¥10 ¥20
输入1-500的整数
余额支付 (余额:-- )
扫码支付
扫码支付:¥2
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值