maven依赖:
<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <version>1.6.0</version> </dependency>
public class WordCount { public static void main(String[] args) { /** * 创建spark配置对象SparkConf,设置spark运行时配置信息, * 例如通过setMaster来设置程序要连接的集群的Master的URL,如果设置为local, * spark为本地运行 */ SparkConf conf = new SparkConf().setAppName("My first spark").setMaster("local"); /** * 创建JavaSparkContext对象 * SparkContext是spark所有功能的唯一入口, * SparkContext核心作用,初始化spark运行所需要的核心组件,同时还会负责spark程序在master的注册。 * */ JavaSparkContext sc = new JavaSparkContext(conf); /** * 根据数据来源,通过JavaSparkContext来创建RDD */ JavaRDD<String> lines = sc.textFile("E:/wordcount.txt"); /** * 对初始化的JavaRDD进行Transformation级别的处理,例如map,filter等高级函数的编程,来记性具体的操作 * 1、按空格进行拆分,拆分为单词 */ JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() { public Iterable<String> call(String words) throws Exception { return Arrays.asList(words.split(" ")); } }); /** * 对初始化的JavaRDD进行Transformation级别的处理,例如map,filter等高级函数的编程,来记性具体的操作 * 2、在单词拆分的基础上,对每个单词实例进行计数为1 */ JavaPairRDD<String, Integer> pairs = words.mapToPair(new PairFunction<String, String, Integer>() { public Tuple2<String, Integer> call(String s) throws Exception { return new Tuple2<String, Integer>(s, 1); } }); /** * 对初始化的JavaRDD进行Transformation级别的处理,例如map,filter等高级函数的编程,来记性具体的操作 * 3、计算每个单词在文中出现的总次数 */ JavaPairRDD<String, Integer> pairRDD = pairs.reduceByKey(new Function2<Integer, Integer, Integer>() { public Integer call(Integer integer, Integer integer2) throws Exception { return integer + integer2; } }); /** * 打印 */ pairRDD.foreach(new VoidFunction<Tuple2<String, Integer>>() { public void call(Tuple2<String, Integer> stringIntegerTuple2) throws Exception { System.out.println(stringIntegerTuple2._1+" "+stringIntegerTuple2._2); } }); /** * 关闭JavaSparkContext */ sc.close(); } }