1 工具IDEA
2 添加jar依赖
3 spark的local模式
在自己电脑下创建文件:
E://sparktext//text.txt
然后写入:
</pre><pre name="code" class="java">hadoop
hbase
hadoop
hello
world
hive
hive
hello
spark
spark
mapreduce
1 代码
import org.apache.spark.{SparkConf,SparkContext}
object text {
def main(args:Array[String]){
//创建环境变量
val conf=new SparkConf().setMaster("local").setAppName("text")
//创建环境变量实例
val sc=new SparkContext(conf)
//读取文件 并行化HDFS文件,注意文件的里面的单词以换行
val data=sc.textFile("E://sparktext//text.txt")
/**
* flatMap是将文件按照“\t”分片
* map 和 reduceByKey使得每一个相同的字母相加
*collection 是actionc操作使得job运行
* foreach 按行打印
*/
data.flatMap(_.split("\t").map((_,1))).reduceByKey(_+_).collect().foreach(println)
}
}
运行结果: