大数据从入门到实战-HDFS-JAVA接口之上传文件

FSDataOutputStream对象

我们知道在Java中要将数据输出到终端,需要文件输出流,HDFSJavaAPI中也有类似的对象。
FileSystem类有一系列新建文件的方法,最简单的方法是给准备新建的文件制定一个path对象,然后返回一个用于写入数据的输出流:

 
  1. public FSDataOutputStream create(Path p)throws IOException

该方法有很多重载方法,允许我们指定是否需要强制覆盖现有文件,文件备份数量,写入文件时所用缓冲区大小,文件块大小以及文件权限。

注意:create()方法能够为需要写入且当前不存在的目录创建父目录,即就算传入的路径是不存在的,该方法也会为你创建一个目录,而不会报错。如果有时候我们并不希望它这么做,可以先用exists()方法先判断目录是否存在。

我们在写入数据的时候经常想要知道当前的进度,API也提供了一个Progressable用于传递回调接口,这样我们就可以很方便的将写入datanode的进度通知给应用了。


package org.apache.hadoop.util;
public interface Progressable{
public void progress();
}

接下来我们通过一个例子来体验FSDataOutputStream的用法:

还是一样我们先在本地创建一个文件,以供测试。

 

接下来编写代码:(可以直接在平台测试)

运行得到如下结果:

可以看到文件已经成功上传了。

编程要求

在右侧代码编辑区和命令行中,编写代码与脚本实现如下功能:

  • /develop/input/目录下创建hello.txt文件,并输入如下数据:
    迢迢牵牛星,皎皎河汉女。
    纤纤擢素手,札札弄机杼。
    终日不成章,泣涕零如雨。
    河汉清且浅,相去复几许?
    盈盈一水间,脉脉不得语。
    《迢迢牵牛星》

  • 使用FSDataOutputStream对象将文件上传至HDFS/user/tmp/目录下,并打印进度。

代码文件

package step3;

import java.io.BufferedInputStream;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.IOException;
import java.io.InputStream;
import java.net.URI;
import java.io.File;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.util.Progressable;


public class FileSystemUpload {
	public static void main(String[] args) throws IOException {
		//请在 Begin-End 之间添加代码,完成任务要求。
        /********* Begin *********/
		
 File localPath = new File("/develop/input/hello.txt");
 String hdfsPath = "hdfs://localhost:9000/user/tmp/hello.txt";
 
 InputStream in = new BufferedInputStream(new FileInputStream(localPath));// 获取输入流对象 
 Configuration config = new Configuration();
 FileSystem fs = FileSystem.get(URI.create(hdfsPath),config);
 long fileSize = localPath.length() > 65536 ? localPath.length() / 65536 : 1;// 待上传文件大小
 
 FSDataOutputStream out = fs.create(new Path(hdfsPath), new Progressable() {
 //方法在每次上传了64KB字节大小的文件之后会自动调用一次 
 long fileCount = 0;
 public void progress() {
 System.out.println("总进度"+ (fileCount / fileSize) * 100 + "%");
 fileCount++;
 }
 });
 
 IOUtils.copyBytes(in, out, 2048, true);//最后一个参数的意思是使用完之后是否关闭流
 }	
		/********* End *********/
}

命令行

root@evassh-12039904:~# mkdir /develop
root@evassh-12039904:~# mkdir /develop/input 
root@evassh-12039904:~# cd /develop/input
root@evassh-12039904:/develop/input# touch hello.txt
root@evassh-12039904:/develop/input# vi hello.txt
root@evassh-12039904:/develop/input# start-dfs.sh
Starting namenodes on [localhost]
localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
localhost: starting namenode, logging to /usr/local/hadoop/logs/hadoop-root-namenode-evassh-12039904.out
localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts.
localhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-evassh-12039904.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: Warning: Permanently added '0.0.0.0' (ECDSA) to the list of known hosts.
0.0.0.0: starting secondarynamenode, logging to /usr/local/hadoop/logs/hadoop-root-secondarynamenode-evassh-12039904.out
root@evassh-12039904:/develop/input# ls
hello.txt

结果

  • 6
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值