windows下开发hadoop

  1. 将编译好的hadoop文件放到自己的电脑上(目录不能有中文)资源:https://download.csdn.net/download/weixin_40281743/12318942
  2. 配置HADOOP_HOME在环境变量上,就和配置JAVA_HOME一样
  3. 在idea建立maven工程
  4. 在pom.xml中添加依赖,hdfs和mapreduce的依赖
    在这里插入图片描述
<dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.7.1</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.7.1</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-mapreduce-client-core -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-mapreduce-client-core</artifactId>
            <version>2.7.1</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-mapreduce-client-common -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-mapreduce-client-common</artifactId>
            <version>2.7.1</version>
        </dependency>

    </dependencies>
  1. 在windows中配置连接C:\Windows\System32\drivers\etc 中的hosts文件配置;在命令行中可以ping通自己的linux服务器。
    在这里插入图片描述
    在这里插入图片描述

  2. 在idea中写测试代码

public class HadoopTest {
    public static void main(String[] args) {
        //强制加载,这个就是编译后的资源,目录一定要写对
        System.load("D:\\soft\\hadoop\\hadoop\\bin\\hadoop.dll");
        //指定用户,指定hadoop的根目录
        System.setProperty("HADOOP_USER_NAME", "root");
        System.setProperty("hadoop.home.dir", "D:\\soft\\hadoop\\hadoop");

        //创建与hdfs的链接
        Configuration conf = new Configuration();
        conf.set("fs.defaultFS", "hdfs://192.168.116.100:9000");

        //hdfs的操作,和我们在java中操作file大同小异
        FileSystem fs = null;
        FSDataOutputStream out = null;
        FSDataInputStream in = null;
        try {
            fs = FileSystem.get(conf);//获取文件系统
            //流操作
            //输出流
//			out = fs.append(new Path("/input/test"));
//			out.write("这是hdfs的文件流!".getBytes());
//			out.flush();
//			System.out.println("success");
            //输入流
            in = fs.open(new Path("/input/test"));
            byte[] bs = new byte[in.available()];
            in.read(bs);
            System.out.println(new String(bs));

        } catch (IOException e) {
            e.printStackTrace();
        } finally {
            if (out != null) {
                try {
                    out.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
            if (in != null) {
                try {
                    in.close();
                } catch (IOException e) {
                    // TODO Auto-generated catch block
                    e.printStackTrace();
                }
            }
            if (fs != null) {
                try {
                    fs.close();
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }
        }
    }
}

linux上hadoop的搭建可以参考
hadoop集群搭建
https://blog.csdn.net/weixin_40281743/article/details/105358852

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值