1 解压缩文件
将文件spark-2.4.5-bin-without-hadoop-scala-2.12.tgz解压缩到无中文无空格的路径中,将hadoop3依赖jar包拷贝到jars目录中。
2 启动本地环境
1) 执行解压缩文件路径下bin目录中的spark-shell.cmd文件,启动Spark本地环境
2) 在bin目录中创建input目录,并添加word.txt文件, 在命令行中输入脚本代码
sc.textFile("input/word.txt").flatMap(_.split(",")).map(