GreenPlum学习笔记:create table创建表

  二维表同样是GP中重要的存储数据对象,为了更好的支持数据仓库海量数据的访问,GP的表可以分成:

  • 面向行存储的普通堆积表
  • 面向列存储的AOT表(append only table)

  当然AOT表也可以是按行存储的,但是按列存储必须是AOT表。这样,我们在设计应用上可以获得相当的灵活性。比如经常需要更新的数据,或者较小的维度数据,应该使用普通堆积表存储。

  例子:

create table tmp_001(
                month_id numeric(8), 
                serv_id numeric(30),
                cust_id numeric(30)
                )
        with (
                   appendonly=true, compresslevel=5, orientation=column, 
                   compresstype=zlib, oids=false
                 )
           distributed by (month_id,serv_id)

1.分布键(哈希键)

  • distributed by (a) 指定a字段为分布键
  • distributer randomly 随机分布

注意:

  • 未指定分布键,默认表的主键为分布键,若表没有主键,则默认把第一列当作哈希键
  • 分布键可以被定义为一个或多个
  • 分布键必须是唯一键
  • 不能修改分布键,且哈希键的列不能update
  • 一个表只能定义一个唯一键,且主键和唯一键必须作为哈希键
  • 数值重复度低,保证数据均匀分布
  • 防止数据倾斜,布尔值不适合,float、double数据类型也不适合,interger、varchar比较好
  • 大表经常做连接时,选择相同的分布键,避免跨节点进行join
  • 尽量不用序列号,无意义

2.AOT 指定按列分布

  • appendonly=true  指定是否只append追加
  • compresslevel=5 zlib压缩级别 1-9共9个级别 9压缩最大
  • orientation=column 指定是否按列存储
  • compresstype=zlib GP提供两种压缩算法:zlib和quicklz
  • oids=false 对象标识符 不分配

3.其他注意

  与其它数据库相比,GP的表最大的不同是它一定是分区的,也就是表中的所有记录都会依据相关算法打散,分布到所有的segment当中,从而在充分利用硬件资源的同时,最大化访问数据的IO,这种特性对于数据仓库应用是非常有帮助的。

  GP提供两种打散数据的算法,一种是Hash算法:distributed by (serv_id),在定义表的时候,通过distributed by指定表中的某个列或者某个列的组合作为Hash键,相同Hash键的记录会放在同一个segment当中。所以,GP建议一般选择记录分布均匀的键作为Hash键使用,从而保证表中的记录可以均匀分布到所有segment上。如果表上定义了主键或者唯一键,则这些键值列必须作前导列出现在分布键当中,并且放在第一位。

   如果定义表的时候,没有指定distributed子句,系统使用第一个列作为Hash键使用。

  另一种数据打散的算法是平均分配法(ROUND-ROBIN),distributed randomly, 假设有三个段,那么这种算法会把第一条记录放在段1, 第二条记录放在段2,第三条记录放在段3,第四条记录放在段1,以此类推,直到所有记录发放完为止。这种算法比较适合表中的字段存在严重数据倾斜的情况。

  在数据仓库中,对于存储海量少变化历史数据的事实表的访问,会产生大量IO。这些表除了记录多外(纵向),同时也很宽。比如几十列,甚至上百列的表也很常见。但是在进行数据分析和挖掘过程中,我们可能只用到这些列的很小一部分内容,而传统的按行存储的表,在访问时总是会访问记录中的所有列,导致很多无效IO,当由于表横向尺寸过大,按行存储的表还会出现行链接,这会使无效IO的问题更严重。在GP中,对于这种情况应该考虑使用面向列存储的AOT表,从而大幅高IO效率,获取数据查询性能的收益。

   现在硬件系统往往IO效率跟不上CPU处理的速度,而数据仓库应用恰恰是IO敏感型的应用,所以很多数据仓库系统上,会看到CPU很闲,但是出现大量IO等待的情况。所以通过压缩,尤其是面向列压缩,允许我们牺牲一定的CPU效率进一步换取IO效率,提高系统的的吞吐量。

  GP的AOT表允许使用两种压缩算法,一种是ZLIB,它的压缩率较高,对CPU的消耗较多,GP中可以指定1到9共9个级别。1的压缩比最小,9最大。另一种算法是QUICKLZ,它的压缩比小,能设置1,造成的CPU负载也比ZLIB小。

  AOT表虽然查询和加载数据的效率很高,但是如它的名字那样它只能支持select,insert,truncate操作,不支持update和delete操作。所以它只适合存放经过处理基本最终无变化的历史数据,用来提供高效的查询访问。

  从数据数据存放的生命周期看,前面介绍的表都称之为永久表,这些表的记录不会因为事务的结束和会话的断开而消失。而业务中,我们经常要使用到临时数据集合,如果用永久表存放中间结果,一方面是在并发环境中数据不安全,另一方面频繁的删除表中的记录或者删除表,会导致大量碎片,在字典层面造成瓶颈。因此GP也支持临时表,不同连接共享相同的表结构。比如下面的例子:

CREATE TEMP TABLE SALES_TMP 
    (PROD_ID numeric NOT NULL , 
    CUST_ID numeric NOT NULL , 
    TIME_ID DATE NOT NULL , 
    CHANNEL_ID numeric NOT NULL , 
    PROMO_ID numeric NOT NULL , 
    QUANTITY_SOLD numeric(10,2) NOT NULL , 
    AMOUNT_SOLD numeric(10,2) NOT NULL)
on commit preserve rows
distributed randomly;
CREATE TEMP TABLE SALES
    (PROD_ID numeric NOT NULL , 
    CUST_ID numeric NOT NULL , 
    TIME_ID DATE NOT NULL , 
    CHANNEL_ID numeric NOT NULL , 
    PROMO_ID numeric NOT NULL , 
    QUANTITY_SOLD numeric(10,2) NOT NULL , 
    AMOUNT_SOLD numeric(10,2) NOT NULL)
on commit delete rows
distributed by (prod_id,cust_id,time_id,channel_id,promo_id);

  例子一是事务内有效,连接会话间数据独立。完成事务后数据保留,只有连接会话断开后数据才消失。

  例子二是事务内有效,也就是提交事务后(commit)数据就会消失。

  如果临时表的名字与永久表名字重复,临时表的访问优先。

  除了普通表以外,GP还支持超大表进行分区应用,为我们的提高数据访问效率的同时,也提高应用的灵活型。它可以支持RANGE分区,LIST分区,以及灵活的复合分区(RANGE-LIST,RANGE-RANGE,LIST-RANGE,LIST-LIST,以及更多层次的分区,比如三层分区),GP的分区是基于segment基础之上的。每个分区的数据同样会打散分布到每个segment中,当where条件上出现分区键时,它会进行分区裁剪,减少IO。需要注意的是,目前GreenPlum还只支持静态分区裁剪,所以如果希望用到分区裁剪,请在Where条件中使用事实表的分区键作为条件。


 END 2018-08-01 18:17:13 

 

转载于:https://www.cnblogs.com/hider/p/9402862.html

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值