Spark实验2更新版(自用)

4 篇文章 0 订阅
3 篇文章 1 订阅

在master节点上执行如下命令:

/opt/hadoop/sbin/start-all.sh	//启动hadoop集群

/opt/spark/sbin/start-all.sh	//启动spark集群

1.在master的/opt目录下新建file1.txt数据文件
在这里插入图片描述

直接复制file1.txt:

1,1768,50,155
2,1218,600,211
3,2239,788,242
4,3101,28,599
5,4899,290,129
6,3110,54,1201
7,4436,259,877
8,2369,7890,27

2.将file1.txt数据文件上传至hdfs文件系统的/user/hadoop目录下
在这里插入图片描述
3.在master的用户根目录下创建TopN工程目录,并创建逻辑代码TopN.scala
在这里插入图片描述
4.进入工程根目录创建sbt编译脚本
在这里插入图片描述
直接复制simple.sbt:

name := "Simple Project"
version := "1.0"
scalaVersion := "2.11.12"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.4"

5.使用sbt执行编译打包命令
在这里插入图片描述

6.将编译后的jar包提交到spark中运行
在这里插入图片描述
7.程序执行完成后在终端输出结果
在这里插入图片描述
8.在/opt目录下创建FileSortData目录,用于存放实验数据文件
在这里插入图片描述
9.数据文件file1.txt
在这里插入图片描述
10数据文件file2.txt
在这里插入图片描述
11.数据文件file3.txt
在这里插入图片描述
12.在master的用户根目录下创建FileSort工程目录,并创建逻辑代码FileSort.scala
在这里插入图片描述
13.进入工程根目录创建sbt编译脚本
在这里插入图片描述
14.执行编译打包命令
在这里插入图片描述
15.将编译后的jar包提交到spark中运行
在这里插入图片描述
16.运行完毕后查看opt目录下上传的结果文件目录FileSortResult,并在终端打印结果数据
在这里插入图片描述
17.在/opt目录下创建file_1.txt数据文件
在这里插入图片描述
18.在用户根目录下创建工程目录,并编写第一个逻辑代码SecondarySortKey.scala
在这里插入图片描述

19.创建第二个逻辑文件SecondarySortApp.scala
在这里插入图片描述
20.进入工程根目录创建sbt编译脚本
在这里插入图片描述
21.执行编译打包命令
在这里插入图片描述

22.将编译后的jar包提交到spark中运行
在这里插入图片描述
23.程序运行完毕后在终端输出结果数据
在这里插入图片描述
执行如下命令:

/opt/spark/sbin/stop-all.sh	//关闭spark集群

/opt/hadoop/sbin/stop-all.sh	//关闭hadoop集群

至此,实验完毕。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值