最近在学习hadoop编程,其中需要将数据上传到hafs仓库,但是要先复制到centos下再上传上去,比较麻烦,所以直接写了一个上传的程序,这个代码不能实现循环上传多个文件,有相应的函数,你可以试一下,也不是很难。
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.io.IOUtils;
import java.io.IOException;
public class LocaltoHDFS {
public static void main(String[] args)throws IOException {
Configuration conf = new Configuration();
Path srcPath = new Path("G:/text.txt");//本地路径
Path dstPath = new Path("/home/fym/input2");// 这个是你hdfs下的路径
FileSystem fs = FileSystem.get(conf);
fs.copyFromLocalFile(srcPath,dstPath);//上传文件
String filename = "hdfs://192.168.200.132:9000/home/fym/input2/text.txt"; //检测文件是否存在
if (fs.exists(new Path(filename))) {
System.out.println("文件存在");
} else {
System.out.println("文件不存在");
}
FSDataInputStream out = fs.open(new Path(filename)); // 打开上传的文件 并且输出里面的内容
IOUtils.copyBytes(out,System.out,1024,true);
}
}