IDEA使用SCALA

一、在IDEA中下载插件

在设置->插件中找到scala,并下载。

下载完成后重启idea

二、在idea中创建spark的RDD操作项目

新建项目选中Scala。

创建完成后为项目添加java包,这个添加的是spark安装包中jars目录下的所有jar包

然后编写RDD操作

import org.apache.spark.{SparkConf, SparkContext}


object Main {
  def main(args: Array[String]): Unit = {
    val sparkConf = new SparkConf()
    sparkConf.setMaster("local")   //本地单线程运行
    sparkConf.setAppName("Main")
    val sc = new SparkContext(sparkConf)
    val line = sc.textFile("C:/Users/Lenovo/Downloads/Volleyball_Players.csv")
    line.foreach(println)
  }
}

如果你引入不了spark,可能就是你的jar包没导入

此时执行程序发下报错java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset......

三、解决方法:

如果你的spark是在本机windows下可以参考

java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset. - 简书

如果你的spark是在虚拟机Linux下可以使用以下方法,

1.下载winutils文件

GitHub - steveloughran/winutils: Windows binaries for Hadoop versions (built from the git commit ID used for the ASF relase)

下载与自己虚拟中hadoop版本相近的,我的是3.2.4所以下载3.0版本

2. 配置环境变量

配置系统环境变量:

新增 变量名:HADOOP_HOME   变量值:就是你上面下载的hadoop版本文件夹的所在位置

在Path 中新增 变量值:%HADOOP_HOME%\bin

3.把hadoop.dll放到C:/windows/system32文件夹下

 4.重启IDEA,再次运行代码

此时发现又报新错误

Exception in thread "main" java.lang.IllegalAccessError: class org.apache.spark.storage.StorageUtils$ (in unnamed module @0x3cd3e762) cannot access class sun.nio.ch.DirectBuffer (in module java.base) because module java.base does not export sun.nio...............................

解决方法:

5. 需要在环境变量中设置 JAVA_OPT 和 JAVA_TOOL_OPTIONS 为 --add-exports=java.base/sun.nio.ch=ALL-UNNAMED

重启idea,再次运行代码

此时代码成功运行 

  • 24
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: 使用Scala编写Spark可以提高代码的可读性和可维护性,同时也可以利用Scala的函数式编程特性来编写更加简洁和高效的代码。在编写Spark应用程序时,需要使用Spark的API来操作RDD(弹性分布式数据集),并使用Scala的语法来定义函数和变量。同时,还需要使用Spark的集群管理工具来管理集群资源,以确保应用程序能够在分布式环境下高效地运行。总之,使用Scala编写Spark是一种非常有效的方式,可以帮助开发人员快速构建高性能的大数据应用程序。 ### 回答2: Spark是一个强大的分布式计算框架,是大数据处理和分析的必备工具。Spark使用Java和Scala语言编写,其中Scala被认为是Spark的“官方语言”。因此,使用Scala编写Spark可以带来一些明显的优势: 1. 高效的并发性和容错性 Scala是一种函数式编程语言,其并发处理和容错能力非常强。因此,使用Scala编写Spark可以提高应用程序的容错性和并发性能,并允许Spark应用程序在分布式环境中更加高效地运行。 2. 易于编写和调试 Scala语言具有简洁、灵活、易于阅读和编写的特点。它有一套强大的编译器和IDE支持,可以帮助开发人员加快Spark应用程序的开发和调试效率。 3. 高度可扩展的代码库 Scala兼容Java虚拟机,因此,Scala编写的代码可以与Java代码无缝协作。此外,Scala还有大量的高质量库可以支持Spark的开发,如Spark本身所包含的Scala和Spark SQL。 总之,Scala是Spark的“官方语言”,使用Scala编写Spark可以提高性能、提高可扩展性、提高开发效率和提高代码重用性。因此,Scala被广泛应用于Spark生态系统,并被许多大型企业和研究机构所青睐。 ### 回答3: Scala 是一种多范式编程语言,旨在结合面向对象编程和函数式编程的最佳特性。Scala 语言的设计非常适合构建高效、并发和可扩展的大规模数据处理应用程序,因此广泛被用于 Apache Spark 的开发。 Apache Spark 是一个快速、分布式的计算框架,为大规模数据处理提供了高效的解决方案。Spark 具有高效的数据抽象层和强大的 API,允许开发人员使用不同的语言编写分布式计算应用程序。Scala 是 Spark 的默认编程语言,因此成为了 Spark 的生态系统中最重要的编程语言之一。 使用 Scala 可以让开发人员在保持高效性、并且让代码更易阅读,易于理解。而这些特性是在 Scala 的面向对象编程和函数式编程的技术支持下实现的。Scala 语言的函数式编程特性,使得 Spark 应用程序和算法可以使用带有高度抽象级别的处理类型和方法。 除此之外,在 Scala使用 Spark 还允许开发人员使用 REPL(交互式解释器)进行实时计算。REPL 方式可以对框架功能进行快速验证,相当于提供了丰富的分析工具对大数据进行实时处理。 Scala 的另一个优势是其强大的类型推导系统。Scala 可以通过类型推导系统自行推断变量类型和方法返回类型,这减少了开发人员的编码量,同时也帮助开发人员避免了类型错误。 因此,使用 Scala 编写 Spark 应用程序不仅保证了应用程序的高效性、可读性和可扩展性,还提供了丰富的分析工具,便于大规模数据处理的实时计算,并且通过 Scala 的强大类型推导系统减少了出错率。所以,在大规模数据处理的应用中,Scala 是用来编写 Spark 应用程序的最好选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值