在Hive中使用Avro

http://www.iteblog.com/archives/1007


为了解析Avro格式的数据,我们可以在Hive建表的时候用下面语句:

01 hive> CREATE EXTERNAL TABLE tweets
02     > COMMENT "A table backed by Avro data with the
03     >        Avro schema embedded in the CREATE TABLE statement"
04     > ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
05     > STORED AS
06     > INPUTFORMAT  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
07     > OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
08     > LOCATION '/user/wyp/examples/input/'
09     > TBLPROPERTIES (
10     >    'avro.schema.literal'='{
11     >        "type""record",
12     >        "name""Tweet",
13     >        "namespace""com.miguno.avro",
14     >        "fields": [
15     >            { "name":"username",  "type":"string"},
16     >            { "name":"tweet",     "type":"string"},
17     >            { "name":"timestamp""type":"long"}
18     >        ]
19     >   }'
20     > );
21 OK
22 Time taken: 0.076 seconds
23  
24 hive> describe tweets;                                                            
25 OK
26 username                string                  from deserializer  
27 tweet                   string                  from deserializer  
28 timestamp               bigint                  from deserializer

然后用Snappy压缩我们需要的数据,下面是压缩前我们的数据:

01 {
02    "username""miguno",
03    "tweet""Rock: Nerf paper, scissors is fine.",
04    "timestamp"1366150681
05 },
06 {
07    "username""BlizzardCS",
08    "tweet""Works as intended.  Terran is IMBA.",
09    "timestamp"1366154481
10 },
11 {
12    "username""DarkTemplar",
13    "tweet""From the shadows I come!",
14    "timestamp"1366154681
15 },
16 {
17    "username""VoidRay",
18    "tweet""Prismatic core online!",
19    "timestamp"1366160000
20 }

压缩完的数据假如存放在/home/wyp/twitter.avsc文件中,我们将这个数据复制到HDFS中的/user/wyp/examples/input/目录下:

1 hadoop fs -put /home/wyp/twitter.avro  /user/wyp/examples/input/

然后我们就可以在Hive中使用了:

1 hive> select * from tweets limit 5;;
2 OK
3 miguno  Rock: Nerf paper, scissors is fine. 1366150681
4 BlizzardCS  Works as intended.  Terran is IMBA. 1366154481
5 DarkTemplar From the shadows I come!    1366154681
6 VoidRay Prismatic core online!  1366160000
7 Time taken: 0.495 seconds, Fetched: 4 row(s)

当然,我们也可以将avro.schema.literal中的

01 {
02    "type""record",
03    "name""Tweet",
04    "namespace""com.miguno.avro",
05    "fields": [
06       {
07          "name""username",
08          "type""string"
09       },
10       {
11          "name""tweet",
12          "type""string"
13       },
14       {
15          "name""timestamp",
16          "type""long"
17       }
18    ]
19 }

存放在一个文件中,比如:twitter.avsc,然后上面的建表语句就可以修改为:

01 CREATE EXTERNAL TABLE tweets
02     COMMENT "A table backed by Avro data with the Avro schema stored in HDFS"
03     ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.avro.AvroSerDe'
04     STORED AS
05     INPUTFORMAT  'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat'
06     OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat'
07     LOCATION '/user/wyp/examples/input/'
08     TBLPROPERTIES (
09         'avro.schema.url'='hdfs:///user/wyp/examples/schema/twitter.avsc'
10     );

效果和上面的一样。

本博客文章除特别声明,全部都是原创!
尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
本文链接地址: 《在Hive中使用Avro》(http://www.iteblog.com/archives/1007)

Flume 是一个分布式的、可靠的、高可用的海量日志采集、聚合和传输的系统,它可以帮助我们快速地将大量的日志数据从不同的源头采集到 Hadoop 生态系统。其Avro 是一种数据交换格式,它支持动态的数据类型定义,数据压缩和二进制编码,使得数据传输更加高效和灵活。下面是使用 Avro 数据源测试 Flume 的实验原理: 1. 准备环境:安装 JDK、Flume 和 Avro 工具包,并在本地或者远程服务器上启动 Flume 的 Agent。 2. 配置 Flume Agent:在 Flume Agent 的配置文件,设置 Avro Source 和其他必要的组件,如 Channel 和 Sink。同时,指定数据源的 IP 地址和端口号,以便 Flume Agent 可以从该数据源获取数据。 3. 启动 Avro 数据源:使用 Avro 工具包的命令行工具,启动 Avro 数据源,并将其绑定到指定的 IP 地址和端口号上。此时,Avro 数据源会监听这个端口,并等待 Flume Agent 的连接请求。 4. 模拟数据生成:使用自定义的 Python 脚本或其他工具,模拟数据生成并发送到 Avro 数据源的监听端口。这些数据可以是结构化的、半结构化的或非结构化的,如 JSON、XML、CSV 和文本等格式。 5. 数据采集和传输:Flume Agent 会从 Avro 数据源获取数据,并将其写入到指定的 Channel 。同时,Flume Agent 会根据配置文件定义的 Sink,将数据传输到指定的目的地,如 HDFS、Kafka 和 Elasticsearch 等。 6. 数据处理和分析:在数据传输完成后,我们可以使用 Hive、Spark、Pig 和 Impala 等工具,对数据进行处理、分析和可视化。这些工具可以帮助我们深入了解数据的特征和规律,为业务决策提供有力的支持。 总之,使用 Avro 数据源测试 Flume 的实验原理是基于 Flume 的强大功能和 Avro 的高效性能,实现数据的快速、准确和可靠的采集和传输,为大数据应用的开发和部署提供了有力的支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值