win10环境下单机eclipse+spark+scala配置

win10下eclipse+spark+scala单机spark环境搭建

学习条件下进行单机spark环境搭建。大致有以下6步
环境为eclipse+scala+JDK1.8+Spark2.4.3+Hadoop2.7

  1. 下载JAVA
  2. 下载eclipse
  3. eclipse下下载scala
  4. 下载配置spark
  5. 下载配置Hadoop
  6. 创建spark实例
  7. 注意事项

1.JAVA环境搭建

在Oracle官网下载JDK后进行环境的配置即可,具体过程较为简单,在此忽略
在这里插入图片描述

2.eclipse下载

具体那个版本的比较适合,没有进行测试,这里使用的是
在这里插入图片描述

3.eclipse下下载Scala

在这里插入图片描述
eclipse下进入help,选择Eclipse Marketplace
在Find中输入scala,选择Scala IDE 4.7.x安装即可
在这里插入图片描述
点confirm,默认安装即可。
也可以从scala官网下载安装包,再从eclipse->Help->install new software选择安装
可能是scala官网为.org的原因,下载速度较慢,可以进行后面步骤。

4.下载配置Spark

在spark官网,https://spark.apache.org/downloads.html 选择下载即可
在这里插入图片描述
当下载完成后进行解压
在这里插入图片描述
在cmd模式下进入解压后的spark中bin目录下运行spark shell
在这里插入图片描述
没有hadoop文件会报错
在这里插入图片描述
在这里插入图片描述
随后将spark的jar包进行打包
在Eclipse下选择windows->preference
在这里插入图片描述
找到Java->BuildPath->User Libraries.点击new创建用户lib,然后选择Add External JARs
将除了scala-compiler,scala-library(scala已经自带,防止冲突)的包导入,保存。在创建项目的时间导入。

5.下载Hadoop

在https://github.com/steveloughran/winutils/下下载Hadoop2.7包到本地
解压即可。
在这里插入图片描述

6.创建spark实例

在eclipse创建scala项目
在这里插入图片描述
导入自己创建的spark包
选择ScalaLibary为2.11,过高版本不兼容
将Spark文件夹中,examples里面的java文件见中JavaWordCount.java拷到这里
右键项目,选择最后Properities
在这里插入图片描述
在这里插入图片描述
选择Scala Complier
选中Use project Setting,设置如上
在Java文件点击run as 选择run configure,进行参数配置
在这里插入图片描述
-Dspark.master=local[*]
-Dhadoop.home.dir=D:\hadoop\hadoop-2.7.1
Program argument为待计数文件,随意选择即可
运行。

7. 注意事项

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值