Windows 单机模式 Spark 安装和 配置

这里写图片描述

一.安装前说明

1.台式机系统为windows7
2.此系统已安装和配置java
3.所有软件均为64位

二.安装配置所需的安装包

1.scala2.10.4(http://pan.baidu.com/s/1eSn2jsQ

2.Intellij IDE 2016.3 (http://pan.baidu.com/s/1dFA4Pk1)

3.spark 1.4.0 (http://pan.baidu.com/s/1bLQcY6

三. windows7 安装 scala

scala 安装比较容易,直接下载相应的安装包即可,因为Scala 2.10.3 版本比较稳定,我们推荐用它。
1.安装过程比较简单(如下图):只需 一路 next 即可。(安装位置自定义)
这里写图片描述

四.Intellij IDE 安装

Intellij IDE 是常用的 java 编辑器,也可以作为 spark 单机版的调试器。Intellij IDE 有社区版和免费版,我们只需使用免费版即可。我们使用的是 2016.3 版本
1.安装过程很简单,如下图,一路 next 即可。(安装位置自定义)
这里写图片描述

五. Intellij IDE 中 scala 插件安装

1.启动 Intellij IDE, 界面很炫酷
这里写图片描述

2.选择新建工程 Create New Project
这里写图片描述

这时(如下图)我们会发现没有 scala 插件
这里写图片描述

3.安装 scala 插件
1.打开 File 中的 setting
这里写图片描述

2.点击 plugins 在搜索框里搜索 scala ,然后会看到 scala,点击 Install 安装,安装好之后重启即可。
这里写图片描述

六.运行wordcount

1.新建工程,选择 scala。
这里写图片描述

2.新建 project name,sdk 选择 jdk 中的 java 1.8,scala jdk 选择 scala-sdk-2.10.4.

这里写图片描述

这里写图片描述

3.选择 This windows
这里写图片描述

这里写图片描述
此处要等待一些时间。
这里写图片描述

4.导入 spark jar 包
在file 中 选择 project structure: 点击 + ,选择 java,然后找到spark 包的存放路径,将lib 加入。
这里写图片描述
点击ok
这里写图片描述
此时可以在工程中看到lib包
这里写图片描述

5.src 新建 包
这里写图片描述

这里写图片描述

6.在包中新建 scala 类(选择 object)
这里写图片描述

7.写入 wordcount 代码
这里写图片描述

package com.bigdata.zhaolei

import org.apache.spark.{SparkConf, SparkContext}

/**
  * Created by Administrator on 2016/11/12.
  */
class countword {
  def main(args: Array[String]): Unit ={
    val conf = new SparkConf().setMaster("local").setAppName("Wordcount")
    val sc = new SparkContext(conf)
    val data = sc.textFile("C://Users//Administrator//Desktop//word//wd.txt") // 文本存放的位置
    data.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect().foreach(println)
}

8.测试代码运行结果
右键,点击 run wordcount(代码中设定的名字)
这里写图片描述

OK,安装成功。

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Spark是一个开源的大数据处理框架,可以在单机模式下进行安装和使用。以下是Spark单机模式安装步骤: 1. 首先,确保你的机器上已经安装了Java环境。你可以通过在终端中输入`java -version`来检查Java是否已经安装。 2. 下载Spark安装包。你可以从Spark官方网站(https://spark.apache.org/downloads.html)下载最新版本的Spark。 3. 解压Spark安装包。将下载的Spark压缩包解压到你想要安装的目录下,例如`/opt/spark`。 4. 配置环境变量。打开终端,编辑`~/.bashrc`文件(或者`~/.bash_profile`),添加以下内容: ``` export SPARK_HOME=/opt/spark export PATH=$PATH:$SPARK_HOME/bin ``` 保存文件后,执行`source ~/.bashrc`(或者`source ~/.bash_profile`)使环境变量生效。 5. 配置Spark。进入Spark安装目录,复制一份`spark-env.sh.template`文件并重命名为`spark-env.sh`: ``` cd /opt/spark/conf cp spark-env.sh.template spark-env.sh ``` 编辑`spark-env.sh`文件,设置以下环境变量: ``` export SPARK_MASTER_HOST=localhost export SPARK_MASTER_PORT=7077 export SPARK_LOCAL_IP=localhost ``` 保存文件后,关闭编辑器。 6. 启动Spark。在终端中执行以下命令启动Spark: ``` cd /opt/spark ./sbin/start-master.sh ``` 这将启动Spark的主节点。 7. 访问Spark Web界面。打开浏览器,访问`http://localhost:8080`,你将看到Spark的Web界面,其中包含有关Spark集群的信息。 至此,你已经成功安装并启动了Spark单机模式。你可以使用Spark提供的命令行工具或编写Spark应用程序来进行数据处理和分析。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值