IDEA+Maven运行调试MapReduce程序

IDEA+Maven运行调试MapReduce程序

新建java类

在项目的左侧文件目录中,选择 s r c src src -> m a i n main main -> j a v a java java,鼠标右键点击,选择 N e w New New -> J a v a C l a s s Java Class JavaClass
200

在弹窗中输入你想要建类的名字,回车即可。这里我们使用Hadoop官方给出的教程代码 WordCount
200.1

在刚才建立的 WordCount类中添加代码,WordCount对输入文件字符进行计数,输出计数的结果。

import java.io.IOException;
import java.util.StringTokenizer;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;

public class WordCount {

    public static class TokenizerMapper
            extends Mapper<Object, Text, Text, IntWritable> {

        private final static IntWritable one = new IntWritable(1);
        private Text word = new Text();

        public void map(Object key, Text value, Context context
        ) throws IOException, InterruptedException {
            StringTokenizer itr = new StringTokenizer(value.toString());
            while (itr.hasMoreTokens()) {
                word.set(itr.nextToken());
                context.write(word, one);
            }
        }
    }

    public static class IntSumReducer
            extends Reducer<Text, IntWritable, Text, IntWritable> {
        private IntWritable result = new IntWritable();

        public void reduce(Text key, Iterable<IntWritable> values,
                           Context context
        ) throws IOException, InterruptedException {
            int sum = 0;
            for (IntWritable val : values) {
                sum += val.get();
            }
            result.set(sum);
            context.write(key, result);
        }
    }

    public static void main(String[] args) throws Exception {
        Configuration conf = new Configuration();
        String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
        if (otherArgs.length < 2) {
            System.err.println("Usage: wordcount <in> [<in>...] <out>");
            System.exit(2);
        }
        Job job = Job.getInstance(conf, "word count");
        job.setJarByClass(WordCount.class);
        job.setMapperClass(TokenizerMapper.class);
        job.setCombinerClass(IntSumReducer.class);
        job.setReducerClass(IntSumReducer.class);
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        for (int i = 0; i < otherArgs.length - 1; ++i) {
            FileInputFormat.addInputPath(job, new Path(otherArgs[i]));
        }
        FileOutputFormat.setOutputPath(job,
                new Path(otherArgs[otherArgs.length - 1]));
        System.exit(job.waitForCompletion(true) ? 0 : 1);
    }
}

配置输入文件路径

b i g d a t a bigdata bigdata 下新建一个 i n p u t input input 文件夹,添加一个或者多个文件到 i n p u t input input 中。注意 input 和 src 是同级目录

鼠标右键点击 bigdata,选择 N e w New New -> D i r e c t o r y Directory Directory
201

在新弹窗的“NAME”中输入名字“input”
202

这时候我们看到,input文件夹已经建立成功,我们在里面导入需要的输入文件就可以了
203

修改level参数

在IDEA菜单栏中点击 F i l e File File -> P r o j e c t S t r u c t u r e Project Structure ProjectStructure
204

在新窗口的左侧 Project Setting 中选择 Project ,查看moduls版本,这里可以看到我的版本是10
205.1

Project Setting 选择 Modules,将 sources 选项卡下的 Language-level 改为对应版本,这里我们选择10,点击OK
205.2

添加Application配置

在IDEA的菜单栏中点击 R u n Run Run -> E d i t C o n f i g u r a t i o n s Edit Configurations EditConfigurations
206

在新窗口中点击左上方的加号,选择 Application
207

配置步骤依次为:

  1. 在 Application 的 Name 填写你要运行时选择的名字,这里我们改为 WordCount。
  2. 在 Main class 选择为你要运行的程序,点击右边的 ⋅ ⋅ ⋅ ··· 就可以选择,这里我们选择WordCount
  3. 在 Program arguments 填写 i n p u t / o u t p u t / input/ output/ input/output/,意味着输入路径为刚才创建的 input 文件夹,输出为 output。这个 output 系统会自动创建。注意 input/ 和 output/ 之间有一个空格,这表示 input 和 output 是两个参数。
  4. 配置完毕,点击OK
    208

运行

在input文件夹中先导入你需要用到的输入文件。将文件复制一下,再进入 IDEA ,对着 input 文件夹点击鼠标右键,点击 Paste,弹窗点击OK,就可以将文件粘贴进入 input 中。导入文件成功后,就可以开始运行程序了。
209

如果要删除文件也很简单,选中文件,右击鼠标,选择 Delete 删除即可
210

运行程序有两种常用方式,直接点击右上角的绿色三角运行符号,或者在程序中右键空白处再点击运行
211

点击开始运行之后,IDEA 下方会显示 Hadoop 的运行输出。待程序运行完毕后,IDEA 的左侧项目目录会出现新的文件夹 output,里面存放的 part-r-00000 就是运行的结果了!
1005

调试

调试的时候需要先加上断点,我们在需要调试的代码前单击加上断点,鼠标右击空白处,选择 Debug ‘WordCount’ 就可以开始调试,程序会在断点处停下。
212

常见报错

Error:java: 不支持发行版本 5

本地运行的是 JDK10,这个报错的原因是项目编译配置使用的 Java 版本不对

  1. IDEA菜单栏中点击 “File -> Project Structure”,查看“Project”和“Modules”中Java版本和本地Java版本是不是一致。如果不一致,改成本地使用的Java版本。
    1000

  2. IDEA菜单栏中点击 “File” -> “Setting”,选择 “Bulid, Execution,Deployment” -> “Compiler” -> “Java Compiler”,把项目的 Target bytecode version 设置为本地版本,同时把
    Project bytecode version 也改为本地版本。
    1001

这两步修改完之后,这个错误就被解决了

系统找不到指定的文件

Exception in thread “main” java.io.IOException: Cannot run program “chmod”: CreateProcess error=2, 系统找不到指定的文件。

如果遇到这个错误,是因为 Windows 下需要安装 x64 cygwin。

解决方法是,到 cygwin 官网下载 setup-x86_64.exe,安装之后,把 bin 目录配置到 Windows 的环境变量 path 中,重启 IDEA 就可以了。

具体的 Cygwin 安装过程请参考这篇博客 windows 安装cygwin教程

Windows下的权限问题

Windows下的权限错误有两种。第一种:

ERROR security.UserGroupInformation: PriviledgedActionException as …

第二种:

Exception in thread “main” java.io.IOException: Failed to set permissions of path: …

这都是因为当前用户没有权限来设置路径权限(Linux就不会遇到这个问题)

解决方法有三种:

  1. 给hadoop打补丁,Hadoop解决windows下权限问题,这个方法适合于Hadoop环境,因为这里我们使用的是Maven,此方法不适合。
  2. 将当前用户设置为超级管理员,或以超级管理员登录运行此程序。(这个方法好像失效了,推荐使用第三种方法)
  3. 将 Hadoop-core 的版本进行回退。首先,我们查看 pom.xml 的 hadoop-core 版本。如果版本是1.2.1 及以上的,将版本设置为 0.20.2 ,重新导入依赖。之后,相应的 main 方法里面的 Job job = Job.getInstance(conf, “word count”); 改成 Job job = new Job(conf, “word count”); 这样问题就解决了。

运行Hadoop,真心建议还是使用 Linux 或者 MacOS,Windows下错误太多了。

参考博客

参考博客 Hadoop: Intellij结合Maven本地运行和调试MapReduce程序 (无需搭载Hadoop和HDFS环境)

参考博客 Intellij idea 报错:Error : java 不支持发行版本5

  • 3
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
下面是搭建idea+maven+spark+scala项目的步骤: 1. 安装JDK和Scala环境。 2. 安装Maven。 3. 在IDEA创建Maven项目。 4. 在pom.xml文件添加依赖,包括Spark和Scala相关依赖。 5. 在src/main/scala目录下创建Scala文件。 6. 编写Spark程序。 7. 运行程序。 具体步骤如下: 1. 安装JDK和Scala环境 首先需要安装Java开发工具包(JDK),并配置环境变量。然后安装Scala编程语言,同样也需要配置环境变量。可以参考官网的安装说明进行操作。 2. 安装Maven Maven是一个Java项目管理工具,可以自动下载所需的依赖库,并将项目打包成Jar包。可以从官网下载Maven,并配置环境变量。 3. 在IDEA创建Maven项目 在IDEA创建Maven项目,选择Scala模板,填写项目名称、groupId、artifactId等信息。IDEA会自动生成pom.xml文件。 4. 在pom.xml文件添加依赖 在pom.xml文件添加Spark和Scala相关依赖,例如: ``` <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.4.5</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>2.4.5</version> </dependency> <dependency> <groupId>org.scala-lang</groupId> <artifactId>scala-library</artifactId> <version>2.11.8</version> </dependency> </dependencies> ``` 5. 在src/main/scala目录下创建Scala文件 在src/main/scala目录下创建Scala文件,例如: ``` object Test { def main(args: Array[String]) { val conf = new SparkConf().setAppName("Test").setMaster("local[*]") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) val df = sqlContext.read.json("data/people.json") df.show() } } ``` 6. 编写Spark程序 在Scala文件编写Spark程序,例如读取JSON文件并显示数据。 7. 运行程序IDEA运行程序,即可看到Spark程序的输出结果。 以上就是搭建idea+maven+spark+scala项目的步骤

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值