idea 使用maven的archetype模板来创建Spark 项目

版本

  • Scala 版本:2.11.8
  • spark 版本:spark-2.4.4-bin-hadoop2.7.tgz

一、创建Scala 工程

1. 创建maven 项目

打开Intellij ,File->new project

只需第一次添加,以后创建项目可以直接跳过该步骤

QnCqf0.md.png
图中参数设置参考:scala 工程创建相关设置

2. 选择模板

QnP49x.md.png

3. 填写工程相关信息

QnPojO.md.png

4. 修改scala 版本号

项目创建完成,打开pom 文件,修改scala 版本号,尽量和本地scala 版本或集群上服务器版本保持一致
QnEBOf.md.png

5. 删除测试依赖

QnFOpt.md.png

6. 删除多余行

注:这行具体干啥的不太清楚,有知道的麻烦留言告知,不胜感激

QnkQhR.md.png

7. 删除测试代码

Qnkf4s.png

上述步骤完成后,运行src 目录下的App 下的,控制台出现"Hello Word!"即完成了scala 工程的创建。


二、添加Spark 相关jar 包

1. 下载spark jar 包

从官网下载spark 相关jar 包:http://spark.apache.org/downloads.html
,我这里用的是 【spark-2.4.4-bin-hadoop2.7.tgz】,下载到本地解压

2. 添加spark jar 包

QnZLsx.md.png

选择刚下载解压后的文件目录中jar所在文件夹
QnekOP.md.png

添加完成后的项目格式如图,主要包含两大sdk: Spark sdk、Scala sdk
QneWpd.md.png

3. 测试spark项目

运行如下代码:

    val spark = SparkSession
      .builder()
      .master("local")
      .appName("Spark SQL Example")
      .config("spark.some.config.option","some-value")
      .getOrCreate()

    import spark.implicits._
    val df = spark.read.json("D:\\apache\\spark-2.4.4-bin-hadoop2.7\\examples\\src\\main\\resources\\people.json")
    df.show()
    df.printSchema()

QnaleU.md.png

可以打印出文件内容即代表spark项目搭建成功。


另:本地未配置hadoop的话,日志中可能会出现如下错误提示,不过不影响spark 项目运行,只不过无法通过web 界面的4040 端口查看程序运行情况,要想修复该错误,可以在windows 本地安装hadoop。

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值