# wordcount
package cn.study.core
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
object WordCount {
def main(args: Array[String]): Unit = {
val conf=new SparkConf().setAppName("wordCount")
val sc = new SparkContext(conf)
val line = sc.textFile("hdfs://192.168.0.101:9000/abc.txt", 1)
val words=line.flatMap(line => line.split(" "))
val pairs=words.map(word => (word,1))
val wordCounts=pairs.reduceByKey(_+_)
wordCounts.collect().foreach(println)
println("hello world")
}
}
####spark-submit 这个是spark下sbin的命令,由于我在profile配置了环境变量,所以直接使用了。
spark-submit \
--class cn.study.core.WordCount \
--num-executors 3 \
--driver-memory 600m \
--executor-memory 100m \
--executor-cores 3 \
/opt/scala-test/wordCount.jar
###使用spark2.3.0下lib的所有jar包,编译使用eclipse中scala2.11.1
spark-core-2.11-2.30.jar 与scala2.11.1匹配
本想用自己安装的scala 2.12.6,结果不行。哎。。。。。。。。。。。
买了个视频发现spark是老版本,一直不能通过。本次调试成功,倍感安心。