hive 动态分区实战

1.建表

CREATE TABLE `dws.dws_transaction_header_np`(
  `oneid` string COMMENT '用户唯一id',
  `transaction_header_id` string COMMENT '交易订单号(包括下单和退款的订单号)',
  `transaction_date` date COMMENT '交易日期',
  `cdp_data_source` string COMMENT 'cdp外部数据来源',
  `create_time` timestamp COMMENT '数据从外部系统新增接入时 入sqlserver的时间',
  `update_time` timestamp COMMENT '数据从外部系统变更接入时 入sqlserver的时间',
  `invoice_no` string COMMENT '发票号')
ROW FORMAT SERDE
  'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
WITH SERDEPROPERTIES (
  'field.delim'=',',
  'serialization.format'=',')
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'
LOCATION
  'hdfs://azurepana01:9820/user/hive/warehouse/dws.db/dws_transaction_header_np'
;


CREATE TABLE `dws.dws_transaction_header_hive`(
  `oneid` string COMMENT '用户唯一id',
  `transaction_header_id` string COMMENT '交易订单号(包括下单和退款的订单号)',
  `cdp_data_source` string COMMENT 'cdp数据来源',
  `create_time` timestamp COMMENT '数据从外部系统新增接入时 入sqlserver的时间',
  `update_time` timestamp COMMENT '数据从外部系统变更接入时 入sqlserver的时间',
  `invoice_no` string COMMENT '发票号')
PARTITIONED BY (
  `transaction_date` date)
ROW FORMAT SERDE
  'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
WITH SERDEPROPERTIES (
  'field.delim'=',',
  'serialization.format'=',')
STORED AS INPUTFORMAT
  'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
  'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'
LOCATION
  'hdfs://azurepana01:9820/user/hive/warehouse/dws.db/dws_transaction_header'

2.参数配置

// hive-site.xml 默认参数配置 (允许使用动态分区)
<property>
<name>hive.exec.dynamic.partition</name>
<value>true</value>
</property>

<property>
<name>hive.exec.dynamic.partition.mode</name>
<value>nonstrict</value>
</property>

<property>
<name>hive.exec.max.dynamic.partitions</name>
<value>10000</value>
</property>

<property>
<name>hive.exec.max.dynamic.partitions.pernode</name>
<value>10000</value>
</property>

3.数据导入demo

// 在Hql和spark sql中可以使用正则表达式,指定你要查询的列

// HQL使得``内的内容表示正则表达式,不设置则无法使用正则表达式
SET hive.support.quoted.identifiers = none;
 
//spark sql 使得``内的内容表示正则表达式,不设置则无法使用正则表达式
SET spark.sql.parser.quotedRegexColumnNames=true;
--非分区表数据导入分区表demo
insert overwrite table dws.dws_transaction_header_hive 
select `(transaction_date)?+.+`,transaction_date
from dws.dws_transaction_header_np;

4.hdfs分区目录查询

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值