Java版本
package cn.spark.study.core;
import java.util.Arrays;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.FlatMapFunction;
import org.apache.spark.api.java.function.Function2;
import org.apache.spark.api.java.function.PairFunction;
import org.apache.spark.api.java.function.VoidFunction;
import scala.Tuple2;
/**
* 本地测试的wordcount程序
* @author Administrator
*
*/
public class WordCountLocal_1 {
public static void main(String[] args) {
// 编写spark应用程序
// 本地执行,是可以执行在eclipse中的mian方法中运行的。
//第一步 :常见sparkConf对象,设置spark应用的配置信息
//使用setMaster()可以设置spark应用程序要连接的spark集群的Master节点的URI;但是如果设置为local则代表在本地运行。
SparkConf conf = new SparkConf()
.setAppName("WordCountLocal")
.setMaster("local"