Spark3.1.2 快速入门

一、特别说明


1.1 Spark3.1.2编程抽象Dataset

在Spark 2.0之前,Spark的主要编程接口是RDD。在Spark2.0之后,RDD被Dataset所取代,Dataset像RDD一样是强类型的,但在底层有更丰富的优化。RDD接口仍然受到支持,您可以在RDD编程指南中获得更详细的参考。但是,我们强烈建议您改用Dataset,它的性能比RDD更好,请参阅SQL编程指南以获得关于Dataset的更多信息。

1.2 Spark3.1.2安全性说明

Spark中的安全默认为“OFF”。这可能意味着默认情况下您很容易受到攻击。运行Spark前请参见《Spark安全》

1.3 环境说明

  • Scala版本:2.12.14
  • Spark版本:3.1.2
  • Spark安装环境:Spark Standalone

二、Spark Shell 交互式操作


Spark的shell提供了一种简单的方法来学习API,以及一个强大的工具来交互分析数据。它可以在Scala(运行在Java VM上,因此是使用现有Java库的好方法)或Python中使用。

  • 启动spark-shell,如以配置了环境变量则可在任意路径下执行如下命令,否则可以在Spark安装目录下得bin目录下运行如下命令启动:
    spark-shell

Spark的主要抽象是一个称为Dataset的分布式项集合。数据集可以从Hadoop InputFormats(如HDFS文件)或通过转换其他数据集创建。让我们从Spark源目录的README文件的文本创建一个新的Dataset:

  • 创建Dataset代码:
    val textFile = spark.read.textFile("/home/niit/training/spark-3.1.2-bin-hadoop2.7/README.md")

    如下图所示:
    在这里插入图片描述

三、Spark Shell 实现Wordcount


  1. 读取文件

    val textFile = spark.read.textFile("/home/niit/training/spark-3.1.2-bin-hadoop2.7/README.md")
    
  2. 分词统计

    val wordCounts = textFile.flatMap(line => line.split(" ")).groupByKey(identity).count()
    
  3. 验证结果

    wordCounts.collect()
    

    结果如截图所示:
    在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

若兰幽竹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值