测试在Windows下的Eclipse连接Linux的Hadoop并运行

一、在Windows在安装hadoop,并配置环境

1.解压缩到对应平台上的jar包的非中文路径中。如:D:\Data\hadoop2.7.2
2.配置环境变量
找到并点击高级系统设置,在系统变量中添加
HADOOP_HOME=D:\Date\hadoop2.7.2
在path路径中添加下面路径
D:\Data\hadoop2.7.2\

二、安装Eclipse并配置相关文件

1.在根目录下创建一个属于Java Project的文件夹并命名为MapReduce。
2.右键MapReduce,建立SourceFolder文件夹,并命名为lib。
3.把依赖包_lib文件夹全部拷贝到lib目录中,
4.全选jar,右键Build Path–>Add to Build Path
5.配置log4g文件

把log4j.properties文件复制到工程中的src文件中。

三、设置一个Wordcount.jar包,对hadoop进行测试。

1.在源文件src目录下创建一个cn.ag.WCount的包
2.在cn.ag.Wcount包下创建一个WordCountMapper类。将其内容修改如下:
package cn.ag.WCount;
import java.io.IOException;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class WordCountMapper extends Mapper<Object,Text,Text,IntWritable>{

	@Override
	protected void map(Object key, Text value, Mapper<Object, Text, Text, IntWritable>.Context context)
			throws IOException, InterruptedException {
		// TODO Auto-generated method stub
		
		 String lins[] = value.toString().split("\t");
		 
		 for (String line : lins) {
			 
			context.write(new Text(line), new IntWritable(1));
		} 	 
		 
	}        
}
3.在cn.ag.WCount包下创建一个WordCountReducer类。将其内容修改如下:
package cn.ag.WCount;
import java.io.IOException;

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Reducer;
public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{

	@Override
	protected void reduce(Text key, Iterable<IntWritable> valus,
			Reducer<Text, IntWritable, Text, IntWritable>.Context context) throws IOException, InterruptedException {
		// TODO Auto-generated method stub
		
		  int totalNum = 0;
		  for (IntWritable v : valus) {
			   
			  totalNum+=v.get();
			
			
		}
		    context.write(key,new IntWritable(totalNum)); 
	}
      
}
5.在cn.ag.WCount包下创建WorldCountDriver类。将其文件内容修改如下:
package cn.ag.WCount;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class WorldCountDriver {

	public static void main(String[] args) throws Exception {
		// TODO Auto-generated method stub
       Configuration conf = new Configuration();
       Job job = Job.getInstance(conf);
       job.setJarByClass(WorldCountDriver.class);
       job.setMapperClass(WordCountMapper.class);//Class
       job.setMapOutputKeyClass(Text.class);
       job.setMapOutputValueClass(IntWritable.class);    
       job.setReducerClass(WordCountReducer.class);
       job.setOutputKeyClass(Text.class);
       job.setOutputValueClass(IntWritable.class);
       FileInputFormat.setInputPaths(job,new Path(args[0]));
       FileOutputFormat.setOutputPath(job, new Path(args[1]));
       boolean result = job.waitForCompletion(true);
       System.out.println("结束");
       System.exit(result?0:1);      
	}

四、运行Count程序

1.现将hadoop.dll复制到C盘中的Windows目录下的System32目录下
2.在src下创建在cn.ag.WCount包,并右键创建一个新的file文件,命名为word.txt。
3.对word.txt文件进行编辑,输入
张五	李四	王五	赵六 
张三	李四	王五	赵六 
张三	李四	王七	赵六 
张五	李三	王五	赵八 
张三	李三	王五	赵六
4.找到并运行WorldCountDriver类,若报错则进行下一步
5.在左侧工具栏中找到word.txt文件并右键,查看Properties,对Location进行复制,并修改others,使用UTF-8。
6.在WorldCountDriver类文件中右键,点击Run As,并查看Run Configurations,点击上边的Arguments,在Program arguments中添加复制的路径,修改如下;
D:\eclipse\project\MapReduce\src\cn\ag\WCount\Input\word.txt
D:\eclipse\project\MapReduce\src\cn\ag\WCount\output
7.对WorldCountDriver文件进行运行,若不能出结果,则需要重启一次电脑,在进行运行。
### 回答1: 要在Linux上安装Eclipse并使用Hadoop,您需要先安装Java和Hadoop,然后下载并安装Eclipse。在Eclipse中,您需要安装Hadoop插件并配置Hadoop的路径等信息。然后您可以在Eclipse中创建Hadoop项目并进行开发、调试等操作。 ### 回答2: Linux系统是开源的操作系统,它有着卓越的性能和速度,而eclipse是一个优秀的开源集成开发环境(IDE),其中支持了Java开发以及其他编程语言。在Linux 上通过eclipse搭建Hadoop开发环境是非常简单的。 1. 软件安装 这一步需要先安装JDK和Hadoop。可以在Linux上通过以下命令安装: sudo apt-get install openjdk-8-jdk wget https://archive.apache.org/dist/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz tar -zxvf hadoop-2.6.0.tar.gz 2. Eclipse安装 下载Eclipse的最新版,直接到官网下载即可。链接为: https://www.eclipse.org/downloads/ 然后解压到你希望的目录,如:/usr/eclipse。 tar -zxvf eclipse-jee-oxygen-R-linux-gtk-x86_64.tar.gz 3. 新建Hadoop项目 在eclipse中,新建一个hadoop项目,点击File -> New -> Java Project,输入项目名称,在下一步中,选择“Use an execution Environment JRE”选项,并在下拉菜单中选择openjdk 8。 接下来,在左侧java Project中,右键单击,选择压缩存档-> .zip 文件。 4. 添加Hadoop支持 再次右键单击刚才创建的Java项目,选择“Build Path”->“Configure build path”。 在“Libraries”选项卡下,点击“Add External JARs... "按钮,选择Hadoop文件夹下的所有.jar文件,然后点击“OK”,完成Hadoop支持的添加。 5. 测试Hadoop 你可以先在eclipse中写一个简单的 “WordCount” 程序,然后部署在Hadoop测试。 注意,在测试过程中,需要确保你的Hadoop集群正常运行。可以运行以下命令,检查是否有一个datanode和namenode处于运行状态。 start-dfs.sh start-yarn.sh 以上是如何在Linux安装eclipse并使用hadoop的一些基本步骤。同时,拥有基本的Linux和Java知识,会更有助于你理解此过程。 ### 回答3: 一、安装Java 在安装EclipseHadoop之前,我们首先需要安装Java环境。Hadoop是基于Java编写的,因此需要Java环境才能正常运行。 可以从Oracle官网上下载Java的安装包,也可以使用Linux自带的安装方法进行安装。在此我们使用Linux自带的安装方法进行安装。 安装方法如下: 1. 打开终端,执行以下命令,更新包索引: sudo apt-get update 2. 执行以下命令,安装OpenJDK 8(Java版本可根据需求自行更改): sudo apt-get install openjdk-8-jdk 二、安装Eclipse 安装好Java环境后,我们就可以安装Eclipse了。 1. 打开Eclipse官网,下载对应版本的安装包,如eclipse-jee-2019-09-R-linux-gtk-x86_64.tar.gz。 2. 将下载的安装包解压到指定的目录中,如/opt/目录,执行以下命令: sudo tar -zxvf eclipse-jee-2019-09-R-linux-gtk-x86_64.tar.gz -C /opt/ 3. 进入/opt/目录,执行以下命令,将eclipse执行文件加入到系统环境变量中: sudo ln -s /opt/eclipse/eclipse /usr/local/bin/ 4. 执行以下命令,启动Eclipseeclipse 三、安装Hadoop 安装完Eclipse后,就可以开始安装Hadoop了。 1. 打开Apache Hadoop官网,下载指定版本的Hadoop安装包,如hadoop-2.7.7.tar.gz。 2. 将安装包解压到指定的目录中,如/opt/目录,执行以下命令: sudo tar -zxvf hadoop-2.7.7.tar.gz -C /opt/ 3. 进入/opt/hadoop-2.7.7/etc/hadoop目录,编辑hadoop-env.sh文件,设置JAVA_HOME路径: sudo nano hadoop-env.sh 将export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64改为export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre,保存并关闭文件。 4. 进入/opt/hadoop-2.7.7/etc/hadoop目录,编辑core-site.xml文件,添加以下内容: <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration> 5. 进入/opt/hadoop-2.7.7/etc/hadoop目录,编辑hdfs-site.xml文件,添加以下内容: <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> 6. 进入/opt/hadoop-2.7.7目录,执行以下命令,启动Hadoop: sbin/start-dfs.sh 四、使用Eclipse操作Hadoop Hadoop启动成功后,我们就可以使用Eclipse进行操作了。 1. 打开Eclipse,新建一个Java项目。 2. 在项目中添加Hadoop的jar包,如hadoop-core-2.7.7.jar。 3. 在项目中编写Java代码,进行Hadoop的操作,如上传文件、下载文件、创建文件夹等。 总之,在安装EclipseHadoop之前,我们需要先安装Java环境。安装完EclipseHadoop后,在Eclipse中添加Hadoop的jar包,并编写自己的Java代码,就可以通过Eclipse进行Hadoop的操作了。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值