【大数据处理技术】实验8

目录

一、Sparkの安装及配置。使用 Spark shell 实现 file8.txt 文件的词频统 计(WordCount)。

二、使用sbt编译打包Scale程序,统计 file8.txt 文件中包含字母 c 和字母 e 的行数。

2.1 安装sbt:

2.1.1 建立启动sbt的脚本文件

2.1.2 测试sbt是否安装成功

2.1.3 设置源,vim ~/.sbt/repositories

2.2 统计 file8.txt 文件中包含字母 c 和字母 e 的行数


一、Sparkの安装及配置。使用 Spark shell 实现 file8.txt 文件的词频统 计(WordCount)

打开清华大学下载站  https://mirrors.tuna.tsinghua.edu.cn/

先进入Apache文件在选择spark文件

解压,如果提示没权限,加sudo chmod 777 -R 

 解压位置:/media/liuhao/sda4/spark

配置环境变量

 

简单测试,词频统计

新建文件test8.file

 进入spark-shell

简单测试(词频统计)

 from pyspark import SparkConf,SparkContext as sc

conf = SparkConf().setMaster("local").setAppName("wordcount")

sc=SparkContext.getOrCreate(conf)

lines = sc.textFile("/usr/local/hadoop/file8.txt")

words = lines.flatMap(lambda line:line.split(" "))

count = words.map(lambda x:(x,1)).reduceByKey(lambda x,y:x+y)

print(count.collect())

 

二、使用sbt编译打包Scale程序,统计 file8.txt 文件中包含字母 c 和字母 e 的行数。

2.1 安装sbt:

sbt - The interactive build tool​​​​​​​e

解压位置:/opt/scala/sbt

配置环境变量:vim ~./bshrc

2.1.1 建立启动sbt的脚本文件

建立启动sbt的脚本文本文件,如/opt/scala/sbt/ $ vim sbt ,在sbt文本文件中添加:

#!/bin/bash

SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M" java $SBT_OPTS -jar /opt/scala/sbt/bin/sbt-launch.jar "$@"

 ·修改sbt文件权限

2.1.2 测试sbt是否安装成功

/*第一次执行时,会下载一些文件包,然后才能正常使用,要确保联网了,安装成功后显示如下*/
$ sbt sbt-version
[info] Set current project to sbt (in build file:/opt/scala/sbt/)
[info] 0.13.5

2.1.3 设置源,vim ~/.sbt/repositories

[repositories]
local
huaweicloud-maven: https://repo.huaweicloud.com/repository/maven/
maven-central: https://repo1.maven.org/maven2/
huaweicloud-ivy: https://repo.huaweicloud.com/repository/ivy/, [organization]/[module]/(scala_[scalaVers

2.2 统计 file8.txt 文件中包含字母 c 和字母 e 的行数

1. 创建文件夹

mkdir ./sparkapp

mkdir -p ./sparkapp/src/main/scala

2. 在~/sparkapp/src/main/scala文件夹下编辑SimpleApp.scala

/* SimpleApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
 
object SimpleApp {
    def main(args: Array[String]) {
        val logFile = "file:///usr/local/hadoop/file8.txt"
        val conf = new SparkConf().setAppName("Simple Application")
        val sc = new SparkContext(conf)
        val logData = sc.textFile(logFile, 2).cache()
        val numAs = logData.filter(line => line.contains("c")).count()
        val numBs = logData.filter(line => line.contains("e")).count()
        println("Lines with c: %s, Lines with e: %s".format(numAs, numBs))
    }
}

​​​​​​​ 

3. 编译打包

vim ./sparkapp/simple.sbt

文件内容(在安装过程中注意查看版本):

name := "Simple Project"
version := "1.0"
scalaVersion := "2.12.15"
libraryDependencies += "org.apache.spark" %% "spark-core" % "3.3.1"

检查应用程序文件结构:

find .

应用程序打包

sbt package

4. 通过spark-submit运行程序​​​​​​​

/media/liuhao/sda4/spark/bin/spark-submit --class "SimpleApp" /opt/scala/sbt/sparkapp/target/scala-2.12/simple-project_2.12-1.0.jar 2>&1 | grep "Lines with"

 如果无输出,请查看问题所在:

/media/liuhao/sda4/spark/bin/spark-submit --class "SimpleApp" /opt/scala/sbt/sparkapp/target/scala-2.12/simple-project_2.12-1.0.jar 2>&1

【参考资料】

ubuntu上安装spark详细步骤_大广-全栈开发的博客-CSDN博客_ubuntu安装spark

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值