创建maven工程,导入jar包:
<properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <maven.compiler.source>1.8</maven.compiler.source> <maven.compiler.target>1.8</maven.compiler.target> <scala.version>2.12.10</scala.version> <spark.version>3.1.2</spark.version> <spark.scala.version>2.12</spark.scala.version> <log4j.version>1.2.17</log4j.version> </properties> <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_${spark.scala.version}</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_${spark.scala.version}</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>org.scala-lang</groupId> <artifactId>scala-library</artifactId> <version>${scala.version}</version> </dependency> <dependency> <groupId>log4j</groupId> <artifactId>log4j</artifactId> <version>${log4j.version}</version> </dependency> </dependencies>
配置log4j文件:src/main/resources/log4j.properties
#指定log4j的输出信息
log4j.rootLogger=INFO, stdout, logfile
#指定log4j的标准输出
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
#指定log4j的标准输出的样式
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
#指定标准输出的转换的格式
log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n
#指定日志文件的输出
log4j.appender.logfile=org.apache.log4j.FileAppender
#指定log4j的输出路径文件名
log4j.appender.logfile.File=log/hd.log
#指定日志日志输出样式
log4j.appender.logfile.layout=org.apache.log4j.PatternLayout
#指定日志文件的转换格式
log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
创建scala对象,编程:
import org.apache.spark.{SparkConf, SparkContext}
/*
scala:word count
Driver端
*/
object App {
def main(args: Array[String]): Unit = {
val config: SparkConf = new SparkConf()
.setAppName("spark_rdd_03")//设置任务名称
.setMaster("local[*]")//设置Master,本地模式,“ * ” 表示cup资源有多少,用多少;也可以用local[2],表示2个核
val sc = new SparkContext(config)
sc
.textFile("hdfs://single01:9000/test/file/Broken to Harness.txt",3)//文件路径和分区数
.mapPartitions(it=>{ //多分区,每个分区都是一个迭代器,每个分区单独处理(单分区可以用map)
it //以行迭代
.filter(_.trim.size>0) //清除空行
.flatMap( //一行有多个单词(数据),不是单一数据所以降维(如果一行作为一条数据,可以用map)
_
.replaceAll(",|\\.|!|\\?|;|\"|-","")//清洗每行的标点符号
.replaceAll("\\s{2,}"," ")//两个或以上的空白字符变为一个空格
.split(" ")//以空格分割单词
.map((_,1))//改变结果(单词,1)
.groupBy(_._1)//以单词分组(有点:减少后面的shuffle操作数据迁移量,类似于combiner)
.map(tp2=>(tp2._1,tp2._2.size))//统计单词和单词数量
)
})
.reduceByKey(_+_)//自动按键分组,把相邻的两个同键(单词)的值相加
.foreach(println)
sc.stop()
}
}