SparkContext初始化--Scala篇(头歌)

这篇博客介绍了如何在Scala中使用Spark进行基本操作。首先,通过创建SparkConf对象并设置appName和master来初始化SparkConf,然后利用SparkConf实例化SparkContext。接着,将字符串列表并行化为RDD,并使用foreach打印每个元素。最后,调用SparkContext的stop方法关闭上下文。
摘要由CSDN通过智能技术生成

import org.apache.spark.{SparkConf, SparkContext}

 

object Test {

  def main(args: Array[String]): Unit = {

    /********** Begin **********/

    //第一步:设置SparkConf

   val conf= new SparkConf().setAppName("educoder").setMaster("local")

    //第二步:初始化SparkContext

   val sc=new SparkContext(conf)  

    /********** End **********/

    val sc1=sc.parallelize(List("hello","world"))

    sc1.foreach(print)

    /********** Begin **********/

    //第三步:关闭SparkContext

   sc.stop()

    /********** End **********/

  }

 

}

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5bCPa2FtaWw=,size_20,color_FFFFFF,t_70,g_se,x_16

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值