Eclipse 安装 Hadoop 插件

Eclipse 安装 Hadoop 插件

1、首先下载对应版本的hadoop插件
这里写图片描述
2、进入Eclipse的目录,找到Plugins文件夹,讲刚才下载的插件拷贝进去(注意,Eclipse最好要处于关闭状态)
这里写图片描述
3、打开,Eclipse,会发现左侧多了一个DFS Location,说明已经安装成功
这里写图片描述
4、打开Windows–Show View
这里写图片描述
5、选择Other
这里写图片描述
6、选择Map/Reduce Location
这里写图片描述
7、这是,下面应该会出现
这里写图片描述
8、空白部分,右键,New Hadoop Location,然后双击,编辑
这里写图片描述

如果出现 ,
这里写图片描述
请检查 hdfs 里面是否有input和output目录

新建hdfs input目录:
hdfs dfs -mkdir /user
hdfs dfs -mkdir /user/root
hdfs dfs -mkdir /user/root/input

9、安装到这里,还缺少一个一个小插件

到网上搜索下载 hadoop-common-2.2.0-bin-master.jar
1、解压jar包
2、将jar包里面的 hadoop.dll 拷贝到系统盘目录 Windows/System32 下
3、将bin目录配置到环境变量中

###10、这些配置完成之后,就可以新建一个项目,然后导入jar包开始写mapreduce程序了,,,,但是要注意的是,,,,这个时候还需要加载一个配置文件,,,可以拷贝hadoop的配置文件 core-site.xml 到项目中(可以在main下面新建一个resource文件,放入即可)。。。
##附WordCount:

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

public class TestWordCount {
	public static class WcMap extends Mapper<LongWritable, Text, Text, IntWritable>{
		private final static IntWritable one = new IntWritable(1) ;
		private  Text word = new Text() ;
		@Override
		protected void map(LongWritable key, Text value, Context context)
				throws IOException, InterruptedException {
			StringTokenizer str = new StringTokenizer(value.toString()) ;
			while(str.hasMoreTokens()){
				String words = str.nextToken() ;
				word.set(words);
				context.write(word, one);
			}
		}
	}

	public static class WcReduce extends Reducer<Text, IntWritable, Text, IntWritable>{
		private IntWritable times = new IntWritable() ;
		@Override
		protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
			int sum=0 ;
			for(IntWritable i :values){
				sum +=i.get() ;
			}
			times.set(sum);
			context.write(key, times);
		}
		
	}
	
	
	
	public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
		Configuration conf = new Configuration() ;
		Job job = Job.getInstance(conf) ;
		job.setJarByClass(TestWordCount.class);
		job.setMapperClass(WcMap.class);
		job.setReducerClass(WcReduce.class);
		job.setOutputKeyClass(Text.class);
		job.setOutputValueClass(IntWritable.class);
		FileInputFormat.addInputPath(job, new Path("/input"));
		FileOutputFormat.setOutputPath(job, new Path("/output"));
		System.exit(job.waitForCompletion(true)?0:1);
	}
}

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值