linux制作归档文件目录,创建Hadoop 归档文件

创建Hadoop 归档文件

[日期:2012-11-15]

来源:Linux社区

作者:likehua

[字体:大 中 小]

Hadoop可以创建自己的归档文件  即har文件(hadoop archive file)。下面的一个shell命令展示如何创建归档文件:

$ hadoop archive -archiveName geoway_portal.har /user/Administrator/geoway_port

al/(对这个目录下的文件进行归档)                /tmp/(要保存的位置)

12/11/07 22:04:28 INFO mapred.JobClient: Running job: job_201211070851_0001

12/11/07 22:04:29 INFO mapred.JobClient:  map 0% reduce 0%

12/11/07 22:04:46 INFO mapred.JobClient:  map 42% reduce 0%

12/11/07 22:04:58 INFO mapred.JobClient:  map 60% reduce 0%

12/11/07 22:05:04 INFO mapred.JobClient:  map 100% reduce 0%

12/11/07 22:05:22 INFO mapred.JobClient:  map 100% reduce 100%

12/11/07 22:05:24 INFO mapred.JobClient: Job complete: job_201211070851_0001

12/11/07 22:05:24 INFO mapred.JobClient: Counters: 17

12/11/07 22:05:24 INFO mapred.JobClient:  Job Counters

12/11/07 22:05:24 INFO mapred.JobClient:    Launched reduce tasks=1

12/11/07 22:05:24 INFO mapred.JobClient:    Launched map tasks=1

12/11/07 22:05:24 INFO mapred.JobClient:  FileSystemCounters

12/11/07 22:05:24 INFO mapred.JobClient:    FILE_BYTES_READ=926

12/11/07 22:05:24 INFO mapred.JobClient:    HDFS_BYTES_READ=474439229

12/11/07 22:05:24 INFO mapred.JobClient:    FILE_BYTES_WRITTEN=1402

12/11/07 22:05:24 INFO mapred.JobClient:    HDFS_BYTES_WRITTEN=474438973

12/11/07 22:05:24 INFO mapred.JobClient:  Map-Reduce Framework

12/11/07 22:05:24 INFO mapred.JobClient:    Reduce input groups=7

12/11/07 22:05:24 INFO mapred.JobClient:    Combine output records=0

12/11/07 22:05:24 INFO mapred.JobClient:    Map input records=7

12/11/07 22:05:24 INFO mapred.JobClient:    Reduce shuffle bytes=0

12/11/07 22:05:24 INFO mapred.JobClient:    Reduce output records=0

12/11/07 22:05:24 INFO mapred.JobClient:    Spilled Records=14

12/11/07 22:05:24 INFO mapred.JobClient:    Map output bytes=424

12/11/07 22:05:24 INFO mapred.JobClient:    Map input bytes=569

12/11/07 22:05:24 INFO mapred.JobClient:    Combine input records=0

12/11/07 22:05:24 INFO mapred.JobClient:    Map output records=7

12/11/07 22:05:24 INFO mapred.JobClient:    Reduce input records=7

由上面的shell命令执行过程,在进行hadoop har文件归档的时候使用了MapReduce。需要注意的是:在创建archive文件后,源文件不会被更改或者删除。archive作为文件系统暴漏给外界。所以所有的fs shell命令都能在archive上运行,但是需要使用不同的URI。另外注意的是archive是不可改变的。所以重命名、删除和创建都会返回错误。

hadoop archive的URI是:

har://scheme-hostname:port/archivepath/fileinarchive。

如果想查看刚创建的归档文件,可以执行以下命令:

$ hadoop fs -lsr har:///tmp/geoway_portal.har

drw-r--r--  - Administrator supergroup          0 2012-11-07 22:05 /tmp/geoway_

portal.har/user

drw-r--r--  - Administrator supergroup          0 2012-11-07 22:05 /tmp/geoway_

portal.har/user/Administrator

drw-r--r--  - Administrator supergroup          0 2012-11-07 22:05 /tmp/geoway_

portal.har/user/Administrator/geoway_portal

-rw-r--r--  10 Administrator supergroup  419438592 2012-11-07 22:05 /tmp/geoway_

portal.har/user/Administrator/geoway_portal/SDE.DBF

-rw-r--r--  10 Administrator supergroup  54993818 2012-11-07 22:05 /tmp/geoway_

portal.har/user/Administrator/geoway_portal/likehua.zip

-rw-r--r--  10 Administrator supergroup      6144 2012-11-07 22:05 /tmp/geoway_

portal.har/user/Administrator/geoway_portal/tes2.dmp0b1331709591d260c1c78e86d0c51c18.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值