在eclipse运行HdfsTest

package com.test;


import java.io.IOException;

import java.net.URI;

import java.net.URISyntaxException;

 

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.FileUtil;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

 

 

public class HdfsTest {

     

    //在指定位置新建一个文件,并写入字符

    public static void WriteToHDFS(String file, String words) throws IOException, URISyntaxException

    {

        Configuration conf = new Configuration();

        FileSystem fs = FileSystem.get(URI.create(file), conf);

        Path path = new Path(file);

        FSDataOutputStream out = fs.create(path);   //创建文件

 

        //两个方法都用于文件写入,好像一般多使用后者

        out.writeBytes(words);  

        out.write(words.getBytes("UTF-8"));

         

        out.close();

        //如果是要从输入流中写入,或是从一个文件写到另一个文件(此时用输入流打开已有内容的文件)

        //可以使用如下IOUtils.copyBytes方法。

        //FSDataInputStream in = fs.open(new Path(args[0]));

        //IOUtils.copyBytes(in, out, 4096, true)        //4096为一次复制块大小,true表示复制完成后关闭流

    }

     

    public static void ReadFromHDFS(String file) throws IOException

    {

        Configuration conf = new Configuration();

        FileSystem fs = FileSystem.get(URI.create(file), conf);

        Path path = new Path(file);

        FSDataInputStream in = fs.open(path);

         

        IOUtils.copyBytes(in, System.out, 4096, true);

        //使用FSDataInoutStream的read方法会将文件内容读取到字节流中并返回

        /**

         * FileStatus stat = fs.getFileStatus(path);

      // create the buffer

       byte[] buffer = new byte[Integer.parseInt(String.valueOf(stat.getLen()))];

       is.readFully(0, buffer);

       is.close();

             fs.close();

       return buffer;

         */

    }

     

    public static void DeleteHDFSFile(String file) throws IOException

    {

        Configuration conf = new Configuration();

        FileSystem fs = FileSystem.get(URI.create(file), conf);

        Path path = new Path(file);

        //查看fs的delete API可以看到三个方法。deleteonExit实在退出JVM时删除,下面的方法是在指定为目录是递归删除

        fs.delete(path,true);

        fs.close();

    }

     

    public static void UploadLocalFileHDFS(String src, String dst) throws IOException

    {

        Configuration conf = new Configuration();

        FileSystem fs = FileSystem.get(URI.create(dst), conf);

        Path pathDst = new Path(dst);

        Path pathSrc = new Path(src);

         

        fs.copyFromLocalFile(pathSrc, pathDst);

        fs.close();

    }

     

    public static void ListDirAll(String DirFile) throws IOException

    {

        Configuration conf = new Configuration();

        FileSystem fs = FileSystem.get(URI.create(DirFile), conf);

        Path path = new Path(DirFile);

         

        FileStatus[] status = fs.listStatus(path);

        //方法1  

        for(FileStatus f: status)

        {

            System.out.println(f.getPath().toString());  

        }

        //方法2  

        Path[] listedPaths = FileUtil.stat2Paths(status);  

        for (Path p : listedPaths){ 

          System.out.println(p.toString());

        }

    }

     

    public static void main(String [] args) throws IOException, URISyntaxException

    {

        //下面做的是显示目录下所有文件

    System.out.println("all file list");

        ListDirAll("hdfs://192.168.7.11:8020/user/");

         

        String fileWrite = "hdfs://192.168.7.11:8020/user/test/FileWrite";

        String words = "This words is to write into file!\n";

        WriteToHDFS(fileWrite, words);

        

        System.out.println("WriteToHDFS file list");

        ListDirAll("hdfs://192.168.7.11:8020/user/test/");

        

        //这里我们读取fileWrite的内容并显示在终端

        ReadFromHDFS(fileWrite);

        

        //这里删除上面的fileWrite文件

        DeleteHDFSFile(fileWrite);

        

        //假设本地有一个uploadFile,这里上传该文件到HDFS

//      String LocalFile = "file:///home/kqiao/hadoop/MyHadoopCodes/uploadFile";

//      UploadLocalFileHDFS(LocalFile, fileWrite    );

    }

}


转载于:https://my.oschina.net/huotui/blog/284317

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值