java hdfs 查询分页_hadoop java操作hdfs

本文介绍了如何使用Java API在Linux环境下操作HDFS,包括创建目录、上传下载文件、查看文件、删除文件等,并展示了具体代码示例,特别是针对分页查询的实现。HDFS提供高容错性和大数据存储能力,Java程序员可以通过FileSystem类进行文件系统交互。
摘要由CSDN通过智能技术生成

0 前言 搞了大约2天时间终于把Linux下面Java API的使用给弄清楚了。做个笔记方便以后参考。环境如下所示 Hadoop:2.5.1 Linux:Ubuntu kylin eclipse:luna 1 步骤 首先是要去下载一个eclipse,这里使用的是Luna。名字比较好听,代表月亮消灭你们... 然后发现

hfds 是一种文件系统,用于存储hadoop将要处理的数据。适用于大规模分布式数据处理,是一个可扩展行的文件分布式系统;

优点

1、如果出现节点宕机,hdfs,可以持续监视,错误检查,容错处理,文档恢复

2、存储文件巨大,hdfs把文件按块处理,规定每块的大小(默认64M)

hdfs常用 命令

命令格式为: hadoop fs -cmd

1、添加目录

hadoop fs -mkdir args

2、添加文件

hadoop fs -put localfile hdfsfileurl

备注:put命令,在hdfs文件系统中放入文件,本地文件消失

3、取出文件

hadoop fs -get locaUrl hdfsurl

备注:get,把hdfs中的文件取回本地。但是hdfs中的文件还存在,相当于copyHadoop学习8:hdfs文件操作 标签(空格分隔): hadoop Hadoop学习8hdfs文件操作 一hdfs文件流读操作 三合并文件上传到 一,hdfs文件流读操作 读文件流程 (1)打开分布式文件 调用 分布式文件 DistributedFileSystem.open()方法(2)从 NameNode 获得 D

4、查看文件

hadoop fs -cat url

备注:  hadoop fs -cat url|more可以分页查看

5、删除文件

hadoop fs -rm url

6、日志方式查看

hadoop fs -tail url

java 程序控制hdfs

在Hadoop中用作文件操作的主类位于org.apache.hadoop.fs软件包中。包括常见的open、read、write、close。Hadoop文件的API起点是FileSystem类,这是一个与文件系统交互的抽象类,我们通过调用factory的方法FileSystem.get(Configuration conf)来取得所需的FileSystem实例,如下我们可以获得与HDFS接口的FileSystem对象:

Configuration conf = new Configuration();

FileSystem hdfs = FileSystem.get(conf);//获得HDFS的FileSystem对象

如果我们要实现HDFS与本地文件系统的交互,我们还需要获取本地文件系统的FileSystem对象

FileSystem local = FileSystem.getLocal(conf);//获得本地文件系统的FileSystem对象

? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57

/**

*

*/

package

org.jrs.wlh;

import

java.io.IOException;

import

org.apache.hadoop.conf.Configuration;

import

org.apache.hadoop.fs.FSDataInputStream;

import

org.apache.hadoop.fs.FSDataOutputStream;

import

org.apache.hadoop.fs.FileStatus;

import

org.apache.hadoop.fs.FileSystem;

import

org.apache.hadoop.fs.Path;

/**

* @PutMeger.java

* created at 2013-8-7 上午12:04:08 by jrs521wlh

* java操作hdfs 往 hdfs中上传数据

* @author jrs521wlh jiangrushe2010@126.com

* @version $Revision$

* update: $Date$

*/

public

class

PutMeger {

public

static

void

main(String[] args)

throws

IOException {

String[] str =

new

String[]{

"E:\\hadoop\\UploadFileClient.java"

,

"hdfs://master:9000/user/hadoop/inccnt.java"

};

Configuration conf =

new

Configuration();

FileSystem fileS= FileSystem.get(conf);

FileSystem localFile = FileSystem.getLocal(conf);

//得到一个本地的FileSystem对象

Path input =

new

Path(str[

0

]);

//设定文件输入保存路径

Path out =

new

Path(str[

1

]);

//文件到hdfs输出路径

try

{

FileStatus[] inputFile = localFile.listStatus(input);

//listStatus得到输入文件路径的文件列表

FSDataOutputStream outStream = fileS.create(out);

//创建输出流

for

(

int

i =

0

; i < inputFile.length; i++) {

System.out.println(inputFile[i].getPath().getName());

FSDataInputStream in = localFile.open(inputFile[i].getPath());

byte

buffer[] =

new

byte

[

1024

];

int

bytesRead =

0

;

while

((bytesRead = in.read(buffer))>

0

){

//按照字节读取数据

System.out.println(buffer);

outStream.write(buffer,

0

,bytesRead);

}

in.close();

}

}

catch

(Exception e){

e.printStackTrace();

}

}

}

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值