hadoop2.7 java开发_Hadoop学习之路(八)在eclispe上搭建Hadoop开发环境

本文详细介绍了如何在Eclipse上搭建Hadoop2.7的开发环境,包括添加Hadoop-eclipse-plugin插件、在Windows上安装Hadoop2.7.5、配置环境变量、修改配置文件,以及在eclipse中进行相关配置,如设置Hadoop Map/Reduce路径,创建HDFS项目并引入jar包。通过这些步骤,开发者可以在Eclipse中进行Hadoop程序开发。
摘要由CSDN通过智能技术生成

一、添加插件

将hadoop-eclipse-plugin-2.7.5.jar放入eclipse的plugins文件夹中

5bca304c62d14673b4f2e02dd0cc2fab.png

二、在Windows上安装Hadoop2.7.5

版本最好与Linux集群中的hadoop版本保持一致

1、将hadoop-2.7.5-centos-6.7.tar.gz解压到Windows上的C盘software目录中

a1e66721cc4bead3d50c8fb847ffbad2.png

2、配置hadoop的环境变量

HADOOP_HOME=C:\software\hadoop-2.7.5

Path=C:\software\hadoop-2.7.5\bin

731869c67dabea4b55a482ce7a649f4c.png

522f7e08b1fba8eaf6133306ac726919.png

3、修改Hadoop安装目录C:\software\hadoop-2.7.5\etc\hadoop中hadoop-env.cmd

f912cffda90e62b2443f2d90b61c3280.png

4、查看Hadoop版本

933ed2277a8e616777ce86b01371b98c.png

5、添加Windows支持文件

因为安装的Hadoop编译的版本是CentOS6.7的版本,在Windows上运行需要添加文件

1)winutils.exe 放在windows平台中你安装的hadoop的bin目录下

2)  hadoop.dll 放在windows操作系统的 c:/windows/system32目录下

07a2adfd1f07e8d736c3e362704d4210.png

9c1ae83e26e638193b80647bb29aa4bb.png

6、重新启动eclipse

三、eclipse中的配置

1、重新启动eclipse,打开windows->Preferences的Hadoop Map/Reduce中设置安装目录

8ac3cea723791c23052925ff63a76a74.png

2、打开Windows->Open Perspective中的Map/Reduce,在此perspective下进行hadoop程序开发

e92a625fcd2b0e167653bb4d3fa9498d.png

3、打开Windows->Show View中的Map/Reduce Locations,如下图右键选择New Hadoop location…新建hadoop连接。

8868443f26c1c2c892cfd7091561b0e7.png

4、配置相关信息

fe00e33379687c8134f07c2a97231114.png

5、配置成功之后再右侧显示如下

dbf19f3c91486f4f0375862b2712a58f.png

四、创建HDFS项目

1、创建一个java project

e3940b24309c77c5bc10cffd969d30e4.png

2、添加jar包这里使用第二种

有三种方式可以往项目中添加jar依赖:

1)直接创建一个lib文件夹,然后放入对应的依赖包,最后add build path

优点:移植方便

缺点:项目臃肿

2)在eclipse中创建user libarary, 然后引入

优点:解决了不同项目中的相同jar的重复依赖问题, 不是直接放入,是引入的方式

3)最后直接使用maven管理jar依赖

完美解决方案:使用maven 我们在项目中只需要编写好:pom.xml文件即可

目前只是操作HDFS,所以只需要引入common和HDFS相关的jar包即可。

c4f16896869fb2975b142e8fac78cc69.png

a83b507f31ce838edde9eb9f91f18b86.png

58362444b1ce531f7325943a7da810b3.png

64515ac6c18956890a94b7e9c891c78f.png

273eea68c58aefa524e824adcedf9edf.png

6ad5dd9b2b7ff863d30b92c29af55d43.png

e843bb73e7fc662089e41c0df3544204.png

f11d6908194cbdef55e6492f6fdf7c80.png

Hadoop的common、hdfs、MapReduce、yarn的相关jar包的位置在安装目录的C:\software\hadoop-2.7.5\share\hadoop文件夹中,各自文件夹下的jar包是核心jar包,lib下的jar包是核心jar包的依赖jar包,都需要引入

70a6c0cee2b63e046f8432b17445f7da.png

3cc2ab881b6f6ccd296b4ffc4037dcd1.png

hdfs的jar包用相同的方法引入

64d4812fc23de62e851d577e2051e7d4.png

这样项目就成功引入了common和hdfs相关的jar包

34dd33525fd3b16be679a27385fa9a16.png

3、创建测试类

package cn.study.hdfs;

import java.net.URI;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

public class TestHdfsDemo1 {

public static void main(String[] args) throws Exception {

Configuration conf = new Configuration();

FileSystem fs = FileSystem.get(new URI("hdfs://hadoop1:9000"),conf,"hadoop");

//System.out.println(fs instanceof DistributedFileSystem);//true

fs.copyFromLocalFile(new Path("D:/abc.txt"), new Path("/a/"));

fs.close();

}

}

测试之前

dbd14c9e5318259c7841df22ece7d75f.png

测试之后

91664112978a47179335749ac63c8491.png

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值