windows 环境下hadoop+spark+maven集成

1.下载apache-maven-3.5.0-bin.tar,并设置MAVEN_HOME.

2. 下载hadoop-2.6.0.tar,并设置HADOOP_HOME.

3.POM配置。

<dependency> <!-- Spark dependency -->

      <groupId>org.apache.spark</groupId>

      <artifactId>spark-sql_2.11</artifactId>

      <version>2.2.0</version>

    </dependency>

    

<dependency>

    <groupId>org.apache.spark</groupId>

    <artifactId>spark-core_2.11</artifactId>

    <version>2.2.0</version>

    <scope>provided</scope>

</dependency>

    <dependency> <!-- Spark dependency -->

      <groupId>org.apache.hadoop</groupId>

      <artifactId>hadoop-client</artifactId>

      <version>2.6.0</version>

    </dependency>

    <dependency>

    <groupId>com.google.collections</groupId>

    <artifactId>google-collections</artifactId>

    <version>1.0</version>

</dependency>


4. 创建SimpleApp类。

import java.util.Arrays;
import java.util.List;


import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.SparkSession;


public class SimpleApp {
public static void main(String[] args) {

          //local代表运行本地集群
   SparkConf conf = new SparkConf().setAppName("app demo").setMaster("local");
   JavaSparkContext sc = new JavaSparkContext(conf);

           //文件放在工程根目录下面
   JavaRDD<String> lines = sc.textFile("test.txt");
   JavaRDD<Integer> lineLengths = lines.map(s -> s.length());
   int totalLength = lineLengths.reduce((a, b) -> a + b);
   
   System.out.println("length:"+totalLength);
   
 }
}


5.运行MAVEN命令eclipse:clean eclipse:eclipse构建好MAVEN项目。

6.运行SimpleApp

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值