hdfs 常用java API---代码篇(二)

1、使用FileSystem以标准输出格式显示hadoop文件系统中的文件

源代码:

import org.apache.hadoop.conf.Configuration;

import java.io.InputStream;

import org.apache.hadoop.io.IOUtils;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

//import org.apache.hadoop.fs.*;

import java.net.URI;



public class FileSystemCat

        {

        public static void main(String[] args) throws Exception

        {

                String uri = args[0];

                Configuration conf = new Configuration();

                FileSystem fs = FileSystem.get(URI.create(uri), conf);

                InputStream in = null;

        try {

                in = fs.open(new Path(uri));

                IOUtils.copyBytes(in, System.out, 4096, false);

            }

        finally {

                IOUtils.closeStream(in);

                }

        }

}


编译:

javac -cp  /home/grid/hadoop-1.2.1/hadoop-core-1.2.1.jar  FileSystemCat.java 

运行:

[grid@h1 myclass]$ hadoop FileSystemCat hdfs://h1:9000/user/grid/in/text2.txt

hello hadoop


2、使用seek 方法,将hadoop文件系统中的一个文件在标准输出上显示三次

源代码:

import org.apache.hadoop.conf.Configuration;

import java.io.InputStream;

import org.apache.hadoop.io.IOUtils;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

//import org.apache.hadoop.fs.*;

import java.net.URI;

import org.apache.hadoop.fs.FSDataInputStream;


public class FileSystemDoubleCat

{

        public static void main(String[] args) throws Exception

        {

                String uri = args[0];

                Configuration conf = new Configuration();

                FileSystem fs = FileSystem.get(URI.create(uri), conf);

                FSDataInputStream in = null;

try {

        in = fs.open(new Path(uri));

        IOUtils.copyBytes(in, System.out, 4096, false);

        in.seek(0);

         // go back to the start of the file

        IOUtils.copyBytes(in, System.out, 4096, false);

        in.seek(0);

        IOUtils.copyBytes(in, System.out, 4096, false);

        }

finally {

        IOUtils.closeStream(in);

        }

   }

}

编译:

javac -cp  /home/grid/hadoop-1.2.1/hadoop-core-1.2.1.jar  FileSystemDoubleCat.java 

运行:

[grid@h1 myclass]$ hadoop FileSystemDoubleCat hdfs://h1:9000/user/grid/in/text2.txt

hello hadoop

hello hadoop

hello hadoop



3、将本地文件复制到hadoop文件系统

源代码:

import java.io.InputStream;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import java.net.URI;

import java.io.*;

import org.apache.hadoop.io.IOUtils;

import org.apache.hadoop.util.Progressable;


public class FileCopyWithProgress

{

public static void main(String[] args) throws Exception

        {

        String localSrc = args[0];

        String dst = args[1];

        InputStream in = new BufferedInputStream(new FileInputStream(localSrc));

        Configuration conf = new Configuration();

        FileSystem fs = FileSystem.get(URI.create(dst), conf);

        OutputStream out = fs.create(new Path(dst), new Progressable()

                                {

                                        public void progress()

                                        {

                                        System.out.print(".");

                                        }

                                });

IOUtils.copyBytes(in, out, 4096, true);

        }

}


编译:

javac -cp  /home/grid/hadoop-1.2.1/hadoop-core-1.2.1.jar  FileCopyWithProgress.java 

运行:

hadoop FileCopyWithProgress URLCat.java in/URLCat.java

[grid@h1 myclass]$ hadoop fs -ls in/

Found 5 items

-rw-r--r--   2 grid supergroup        487 2013-08-25 06:57 /user/grid/in/URLCat.java


4、显示hadoop文件系统中一组路径的文件信息

源代码:

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileUtil;

import java.net.URI;



public class ListStatus

{

        public static void main(String[] args) throws Exception

        {

                String uri = args[0];

                Configuration conf = new Configuration();

                FileSystem fs = FileSystem.get(URI.create(uri), conf);

                Path[] paths = new Path[args.length];

                for (int i = 0; i < paths.length; i++)

                {

                        paths[i] = new Path(args[i]);

                 }

//paths[0] = new Path(args[0]);

                        FileStatus[] status = fs.listStatus(paths);

                        Path[] listedPaths = FileUtil.stat2Paths(status);

                 for (Path p : listedPaths)

                {

                        System.out.println(p);

                }

        }

}


编译:

javac -cp  /home/grid/hadoop-1.2.1/hadoop-core-1.2.1.jar  ListStatus.java 

运行:

[grid@h1 myclass]$ hadoop ListStatus hdfs://h1:9000/ hdfs://h1:9000/user/grid/in

hdfs://h1:9000/home

hdfs://h1:9000/user

hdfs://h1:9000/user/grid/in/URLCat.java

hdfs://h1:9000/user/grid/in/VERSION

hdfs://h1:9000/user/grid/in/test3.txt

hdfs://h1:9000/user/grid/in/text1.txt

hdfs://h1:9000/user/grid/in/text2.txt


     

HDFSHadoop分布式文件系统)是Hadoop生态系统中的核心组件,用于在分布式环境下存储和处理大规模数据。HDFS支持多种编程语言的API,其中Java是最常用的。 HDFSJava API提供了一系列类和方法,可以方便地对HDFS进行读写操作。下面是一些常用HDFS Java API及其应用实例: 1. Configuration类:用于加载Hadoop配置文件,创建和管理配置对象。可以通过Configuration类的方法设置HDFS的各种参数,比如文件块大小、副本数等。 2. FileSystem类:用于操作HDFS中的文件和目录。可以通过FileSystem类创建、删除和重命名文件,也可以读写文件中的内容。以下是一个示例代码: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class HdfsExample { public static void main(String[] args) { try { // 加载Hadoop配置文件 Configuration conf = new Configuration(); // 创建FileSystem对象 FileSystem fs = FileSystem.get(conf); // 在HDFS创建一个新文件 Path filePath = new Path("/user/hadoop/test.txt"); fs.create(filePath); // 写入文件内容 String content = "Hello, HDFS!"; byte[] bytes = content.getBytes(); fs.writeFile(filePath, bytes); // 读取文件内容 byte[] buffer = new byte[1024]; int bytesRead = fs.open(filePath).read(buffer); String fileContent = new String(buffer, 0, bytesRead); System.out.println("文件内容:" + fileContent); // 删除文件 fs.delete(filePath); // 关闭FileSystem对象 fs.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 以上示例代码演示了如何使用HDFS Java API创建、写入、读取和删除文件。 除了以上的常用APIHDFSJava API还提供了许多其他的类和方法,用于实现更复杂的操作,比如文件复制、权限管理、检查点等。开发者可以根据自己的需求选择适合的API进行使用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值