如何在Hadoop中随机写

本文介绍了在Hadoop环境下处理GeoTIFF文件时遇到的随机写问题。由于HDFS不支持随机写操作,作者通过创建本地临时文件,然后利用WorldWind的GeoTiffWriter将处理后的TIFF数据写入HDFS,实现了批处理的需求。整个过程包括在Map函数中创建本地和HDFS文件,使用GeoTiffWriter进行转换,并通过缓冲区在HDFS中顺序写入。
摘要由CSDN通过智能技术生成

题目有点忽悠人,希望被忽悠进来的筒子接着看,会有收获的

 

最近 由于 项目 中 遇到了TIFF(我们的TIFF文件 是 GeoTiff)批量处理的问题,并且由于HDFS读写 图像文件功能的缺失,所以我们就自定义了Hadoop ImageInputFormat ImageRecordReader等 类, 将 文件的 名称封装在 Key中 ,将 文件的 内容 放入 FSDataInputStream ,封装在 Value中 , 完成了读取的工作,但是  key value  map函数中 进行处理 之后,例如 加 logo等 操作 ,获取 图像  元数据等  tiff文件的写 如到 HDFS中 成为了新的问题,根据我们已有的知识 我们判断 Hadoop 是不支持随机写的 ,FSDa

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值