import java.io.FileOutputStream;
import java.io.OutputStream;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
public class HdfsFile2Local {
public static void main(String[] args) throws Exception {
// 获取读取源文件和目标文件位置参数
String local = "/usr/local/hadoop/output/a.txt";
String uri = "hdfs://hadoop1:9000/user/hadoop/usr/test/local2hdfs_part.txt";
FSDataInputStream in = null;
OutputStream out = null;
Configuration conf = new Configuration();
try {
// 获取读入文件数据
FileSystem fs = FileSystem.get(URI.create(uri),conf);
in =fs.open(new Path(uri));
// 获取目标文件信息
out = new FileOutputStream(local);
byte[] buffer = new byte[1024];
hadoop 将Hdfs中的文件下载到本地
最新推荐文章于 2024-09-10 09:12:13 发布
本文介绍了如何使用Hadoop将HDFS中的文件高效地下载到本地进行处理,适合大数据工作者参考。

最低0.47元/天 解锁文章
3923

被折叠的 条评论
为什么被折叠?



