spark单机版intelij开发(含maven)

Intellij之Spark Scala开发环境搭建 - 简书
Intellij安装scala插件详解_什么最重要?算法!!-CSDN博客_scala插件

参考博客:
1、http://wwwlouxuemingcom.blog.163.com/blog/static/20974782201321953144457/
2、scala入门-01-IDEA安装scala插件_stark_summer的专栏 -CSDN博客_idea安装scala插件

本次具体实现过程:
intellij IDEA本来是不能开发Scala程序的,但是通过配置是可以的,但是通过intellij IDEA软件下载Scala插件总是失败,所以只能手动下载,但是手动下载过程中要注意:
1、一是scala的版本要和Intellij版本对应。如下图是查看方式:

这里写图片描述

从上面显示的信息是:
Updatated: 2016/7/13
于是我们到下面的网站去找匹配的插件:
Scala - IntelliJ IDEs Plugin | Marketplace

这里写图片描述

当我们下载完插件之后:
把下载的.zip格式的scala插件放到Intellij的安装的plugins目录下;
再安装刚刚放到Intellij的plugins目录下的scala插件(注:直接安装zip文件)即可。如下图:

这里写图片描述

新建scala项目

导入spark所有jar包

import org.apache.spark.mllib.linalg.{Matrices, Matrix}
import org.apache.spark.{SparkContext, SparkConf}

/**
  * Created by Administrator on 2017/4/20.
  * xudong
  */
object WordCountLocal {
  def main(args: Array[String]) {
    /**
      * SparkContext 的初始化需要一个SparkConf对象
      * SparkConf包含了Spark集群的配置的各种参数
      */
    val conf=new SparkConf()
      .setMaster("local")//启动本地化计算
      .setAppName("testRdd")//设置本程序名称

    //Spark程序的编写都是从SparkContext开始的
    val sc=new SparkContext(conf)
    //以上的语句等价与val sc=new SparkContext("local","testRdd")
    val data=sc.textFile("e://hello.txt")//读取本地文件
//  val data=sc.textFile("file:///opt/modules/wc.input")//读取本地文件
    data.flatMap(_.split(" "))//下划线是占位符,flatMap是对行操作的方法,对读入的数据进行分割
      .map((_,1))//将每一项转换为key-value,数据是key,value是1
      .reduceByKey(_+_)//将具有相同key的项相加合并成一个
      .collect()//将分布式的RDD返回一个单机的scala array,在这个数组上运用scala的函数操作,并返回结果到驱动程序
      .foreach(println)//循环打印
  }
}

打包jar包,提交到spark集群计算

image.png

在spark上提交任务

spark-submit --master spark://192.168.47.244:7077 --class WordCountLocal /opt/modules/wordspark.jar

maven项目搭建

<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.11</artifactId>
    <version>2.2.1</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-sql -->
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-sql_2.11</artifactId>
    <version>2.2.1</version>
</dependency>

spark maven


 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值