Hive编程(九)【模式设计】

9.1按天划分的表

hive> CREATE TABLE supply_2011_01_02 (id int, part string, quantity int); 
hive> CREATE TABLE supply_2011_01_03 (id int, part string, quantity int);
hive> CREATE TABLE supply_2011_01_04 (id int, part string, quantity int);

hive> …. load data …

hive> SELECT part,quantity supply_2011_01_02
> UNION ALL
> SELECT part,quantity from supply_2011_01_03
> WHERE quantity < 4;

对于这种情况,应该使用分区表。


hive> CREATE TABLE supply (id int, part string, quantity int) 
> PARTITIONED BY (int day);

hive> ALTER TABLE supply add PARTITION (day=20110102);
hive> ALTER TABLE supply add PARTITION (day=20110103);
hive> ALTER TABLE supply add PARTITION (day=20110102);

hive> .... load data ...

hive> SELECT part,quantity FROM supply
> WHERE day>=20110102 AND day<20110103 AND quantity < 4;

9.2 关于分区


hive> CREATE TABLE weblogs (url string, time long ) 
> PARTITIONED BY (day int, state string, city string);
hive> SELECT * FROM weblogs WHERE day=20110102;
hive> CREATE TABLE weblogs (url string, time long, state string, city string ) 
> PARTITIONED BY (day int);
hive> SELECT * FROM weblogs WHERE day=20110102;

对上述语句使用两个级别的分区。


hive> CREATE TABLE weblogs (url string, time long, city string ) 
> PARTITIONED BY (day int, state string);
hive> SELECT * FROM weblogs WHERE day=20110102;

9.3 唯一建和标准化

Hive没有主键或基于序列密钥生成自增键的概念。

9.4 同一份数据多种处理

hive> INSERT OVERWRITE TABLE sales 
> SELECT * FROM history WHERE action='purchased';

hive> INSERT OVERWRITE TABLE credits
> SELECT * FROM history WHERE action='returned';

以上语句表达的意思是从源表history读取数据,然后导入到2个不同的表中。然而这种写法,虽然语法正确,但执行效率底下。可使用下面的查询达到同样的目的,且只扫描一次history表。如:


hive> FROM history 
> INSERT OVERWRITE sales SELECT * WHERE action='purchased'
> INSERT OVERWRITE credits SELECT * WHERE action='returned';

9.5 对于每个表的分区

9.6 分桶表数据存储

分区是一种提供隔离数据和优化查询的方式。

分桶是将数据集分解成更容易管理的若干部分的一种技术。

hive> CREATE TABLE weblog (url STRING, source_ip STRING) 
> PARTITIONED BY (dt STRING, user_id INT);
hive> FROM raw_weblog 
> INSERT OVERWRITE TABLE page_view PARTITION(dt='2012-06-08', user_id)
> SELECT server_name, url, source_ip, dt, user_id;
hive> CREATE TABLE weblog (user_id INT, url STRING, source_ip STRING) 
> PARTITIONED BY (dt STRING)
> CLUSTERED BY (user_id) INTO 96 BUCKETS;

在使用NSERT … TABLE语句时,需要设置hive.enforce.bucketing属性为目标表的分桶初始化过程设置正确的reducer个数。如:


hive> SET hive.enforce.bucketing = true; 
hive> FROM raw_logs
> INSERT OVERWRITE TABLE weblog
> PARTITION (dt='2009-02-25')
> SELECT user_id, url, source_ip WHERE dt='2009-02-25';

若没有设置hive.enforce.bucketing属性,就需要设置和分桶个数相匹配的reducer个数。如set mapred.reduce.tasks=96,在INSERT语句中,在SELECT语句后增加CLUSTER BY语句。

9.7 为表增加列

Hive使用SerDe用于从输入中提取数据。也可以用于输出数据。

使用ALTER TABLE ADD COLUMN语句添加新字段。如:

hive> ALTER TABLE weblogs ADD COLUMNS (user_id string); 

无法在现有字段前和中间增加新字段。

9.8 使用列存储表

Hive通常使用行式存储。不过也提供了一个列式SerDe来以混合列式格式存储信息。

9.8.1 重复数据

有足够多的行。如:

state        uid        age 
NY Bob 40
NJ Sara 32
NY Peter 14
NY Sandra 4

9.8.2 多列


state        uid        age        server        tz        many_more … 
NY Bob 40 web1 est stuff
NJ Sara 32 web1 est stuff
NY Peter 14 web3 pst stuff
NY Sandra 4 web45 pst stuff
hive> SELECT distinct(state) from weblogs; 
NY
NJ

基于列式存储。使得表分析数据更快。

9.9 总是使用压缩

1.上传tar包 2.解压 tar -zxvf hive-1.2.1.tar.gz 3.安装mysql数据库 推荐yum 在线安装 4.配置hive (a)配置HIVE_HOME环境变量 vi conf/hive-env.sh 配置其中的$hadoop_home (b)配置元数据库信息 vi hive-site.xml 添加如下内容: javax.jdo.option.ConnectionURL jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true JDBC connect string for a JDBC metastore javax.jdo.option.ConnectionDriverName com.mysql.jdbc.Driver Driver class name for a JDBC metastore javax.jdo.option.ConnectionUserName root username to use against metastore database javax.jdo.option.ConnectionPassword hadoop password to use against metastore database 5.安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下 如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行) mysql -uroot -p #(执行下面的语句 *.*:所有库下的所有表 %:任何IP地址或主机都可以连接) GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION; FLUSH PRIVILEGES; 6. Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /home/hadoop/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar 启动hive bin/hive ---------------------------------------------------------------------------------------------------- Hive几种使用方式: 1.Hive交互shell bin/hive 2.Hive JDBC服务(参考java jdbc连接mysql) 3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别的节点上用beeline去连接 bin/beeline -u jdbc:hive2://mini1:10000 -n root 或者 bin/beeline ! connect jdbc:hive2://mini1:10000 4.Hive命令 hive -e ‘sql’ bin/hive -e 'select * from t_test'
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值