Spark的安装及使用

本文详细介绍了如何安装Scala和Spark,启动Spark环境,并在交互式Shell中执行WordCount任务。接着,演示了从HDFS加载文件并进行词频统计,以及编写独立的Scala和Java应用程序执行相同任务。提供了完整的命令行操作步骤和代码示例。
摘要由CSDN通过智能技术生成

Spark的安装及使用

1、官网下载安装Scala:scala-2.12.8.tgz
https://www.scala-lang.org/download/

tar -zxvf scala-2.12.8.tgz -C /usr/local

mv scala-2.12.8 scala

测试:scala -version
启动:scala

2、官网下载安装Spark:spark-2.4.2-bin-hadoop2.7.tgz
https://www.apache.org/dyn/closer.lua/spark/spark-2.4.2/spark-2.4.2-bin-hadoop2.7.tgz
解压、重命名
启动spark
①、先启动hadoop 环境

start-all.sh

②、启动spark环境
进入到SPARK_HOME/sbin下运行start-all.sh

/opt/module/spark/sbin/start-all.sh

查看spark的web控制页面:http://ip地址:8080/
显示spark的端口是7070

Spark-shell
此模式用于interactive programming,先进入bin文件夹后运行:spark-shell

Spark应用程序:WordCount

参考博文:http://dblab.xmu.edu.cn/blog/986-2/
1、执行如下命令新建目录:

cd /usr/local/spark
mkdir mycode
cd mycode
mkdir wordcount
cd wordcount

2、在“/usr/local/spark/mycode/wordcount”目录下新建一个包含了一些语句的文本文件word.txt,命令如下:

vim word.txt

输入需要词频统计语句,退出
3、执行以下命令进入spark-shell

cd /usr/local/spark
./bin/spark-shell
....//这里省略启动过程显示的一大堆信息
scala>

4、加载本地文件
在第二个终端窗口下操作,用下面命令到达“/usr/local/spark/mycode/wordcount”目录,查看一下上面已经建好的word.txt的内容:

cd /us
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值