java操作Hadoop

创建项目

在Eclipse中创建名为HDFSFileIfExist的项目

添加JAR包

对着项目右键,增加一个额外的library

根据以下的图片添加一些jar 

lib下的所有jar文件 

操作代码

创建一个类

将HDFS下面那个文件打开,然后复制到类中

上传test到hadoop 

运行

HDFSFileIfExist文件

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class HDFSFileIfExist {

	public static void main(String[] args) {
		try {
			String fileName = "test.txt";
			Configuration conf = new Configuration();
			conf.set("fs.defaultFS", "hdfs://localhost:9000");
			conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
			FileSystem fs = FileSystem.get(conf);
			if(fs.exists(new Path(fileName))) {
				System.out.println("file exist");
			}else {
				System.out.println("file is not existed");
			}
		}catch(Exception e) {
			e.printStackTrace();
		}
	}
}

打成jar包

先打开这个

右键项目,出现了之后export即可

直接next

在这个目录下创建一个文件 

可以进入到文件看看是否存在

cd然后回到hadoop运行该文件

先查看,可以发现是存在

如果不存在,上传后再查看

运行MyFSDataInputStream文件


import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.io.*;
public class MyFSDataInputStream extends FSDataInputStream {
    public MyFSDataInputStream(InputStream in){
        super(in); 
    }
    /**
    *实现按行读取
    *每次读入-一个字符,遇到"\n"结束, 返回一行内容
    */
    public static String readline(BufferedReader br) throws IOException {
        char[] data = new char[ 1024];
        int read = -1;
        int off= 0;
        // 循环执行时,br每次会从上- -次读取结束的位置继续读取
        //因此该函数里,off 每次都从0开始
        while ( (read = br.read(data, off, 1)) != -1 ) {
            if (String.valueOf(data[off]).equals("\n")) {
                off += 1;
                break;
            }
            off += 1;
        }
        if (off> 0) {
            return String.valueOf(data);
        } else {
            return null;
        }
    }
    /**        
    *读取文件内容
    */
    public static void cat(Configuration conf, String remoteFilePath) throws IOException {
        FileSystem fs = FileSystem.get(conf);
        Path remotePath = new Path(remoteFilePath);
        FSDataInputStream in = fs.open(remotePath);
        BufferedReader br = new BufferedReader(new InputStreamReader(in));
        String line = null;
        while ( (line = MyFSDataInputStream.readline(br)) != null ) {
            System.out.println(line);
        }    
        br.close();
        in.close();
        fs.close();
    }
    /**    
    *主函数
    */
    public static void main(String[] args) {
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS" ,"hdfs://localhost:9000");
        String remoteFilePath = "/user/hadoop/test.txt";
        try {
            MyFSDataInputStream.cat(conf, remoteFilePath);
        } catch (Exception e){
            e.printStackTrace();    
        }
    }
}

  • 8
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
要使用Java连接Hadoop,你可以使用HadoopJava API来实现。首先,你需要在Java代码中引入Hadoop的相关依赖。根据引用所示,你需要在你的Maven项目中添加以下依赖: ```xml <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>3.3.2</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-hdfs</artifactId> <version>3.3.2</version> </dependency> ``` 接下来,你需要编写Java代码来连接Hadoop。根据引用所示,你可以使用HDFS工具类来打开HDFS中的文件,并将其内容输出到控制台。以下是一个示例代码: ```java import org.apache.hadoop.fs.FsUrlStreamHandlerFactory; import org.apache.hadoop.io.IOUtils; import java.io.IOException; import java.io.InputStream; import java.net.MalformedURLException; import java.net.URL; public class HadoopConnection { public static void main(String[] args) throws MalformedURLException, IOException { InputStream in = null; try { // 设置URL流处理工厂 URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory()); // 打开HDFS中的文件 in = new URL("hdfs://106.13.58.73:9000/in/text1.txt").openStream(); // 将文件内容输出到控制台 IOUtils.copyBytes(in, System.out, 4096, false); } finally { // 关闭流 IOUtils.closeStream(in); } } } ``` 这个示例中,我们使用了Hadoop的`URL`类来打开HDFS中指定文件的输入流,并使用`IOUtils`类将输入流的内容复制到标准输出流中。你可以根据自己的需要修改代码来连接Hadoop并执行相应的操作。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [idea连接Hadoop以及通过JavaHadoop中的文件数据写入数据库中](https://blog.csdn.net/weixin_46946002/article/details/115222511)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [使用Java连接Hadoop进行编程](https://blog.csdn.net/wr456wr/article/details/125363436)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

kkoneone11

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值