Spark入门程序(idea,scala)

工具idea 语言scala

spark编程入门程序

package com.doit.core
import org.apache.log4j.{Level, Logger}
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**    spark编程入门程序
*    1 获取spark编程的环境  SparkContext
*    2 需要传入一个配置对象  SparkConf   1) 运行Master 2) 程序名
*    3 读取本地文件
*    4 调用方法(算子) 处理数据   [数据:理解成迭代器]
*    5 输出结果  打印
*    6 释放资源 sc.stop
*/
object C01BaseDemo {
  //设置控制台打印日志的日志级别
  Logger.getLogger("org").setLevel(Level.ERROR)
  def main(args: Array[String]): Unit = {
    //1使用spark编程
    //首先 spark编程的入口 [环境]
    val conf = new SparkConf()
    //运行Master 设置程序名字
    /**
     * 程序运行必须设置运行模式
     *   conf.setMaster("local")  等同于  conf.set("spark.master", "")
     *  local       在本地使用一个核处理数据
     *  local[4]   在本地使用四个核处理数据
     */
    conf
      .setMaster("local")
      .setAppName("date")
    //2.获取spark编程环境 SparkContext
    val context = new SparkContext(conf)
    //3.读取本地文件
    //RDD 可以理解成为Iterator(迭代器)
    val data: RDD[String] = context.textFile("doit-spark/data/a.txt")
    //4.调用方法(算子) 处理数据 [数据:理解成为迭代器]
    val res: RDD[String] = data.map(e => e + "-hello")
    //5.输出结果 /存储到磁盘/HDFS/mysql/打印
    res.foreach(println)
    //6.回收环境
    context.stop()
  }

}

注意:导包apache的包,内容解释都在注释里

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值