windows安装spark,并使用idea编写scala跑spark

1)jdk安装略。。。
2)scala
https://www.scala-lang.org/download/all.html
下载zip解压,配置环境变量
3)spark
http://archive.apache.org/dist/spark/
下载解压
cmd中输入spark-shell
报错 Failed to locate the winutils binary in the hadoop binary path
需要安装hadoop
4)windows下hadoop安装
软件http://archive.apache.org/dist/hadoop/
下载解压即可
需要一些操作
1) https://github.com/steveloughran/winutils
下载winutils。这个是别人编译好的hadoop的windows版本二进制文件,不需要我们自己进行编译。下载!覆盖!即可。
在这里插入图片描述

复制hadoop.dll文件到指定目录
将根目录下的bin文件夹中的hadoop.dll文件复制到C:\Windows\System32文件夹下
2)修改配置文件etc\hadoop\hadoop-env.cmd
在这里插入图片描述
如果路径中含有Program Files需要用PROGRA~1替换
在这里插入图片描述
3)打开根目录下的etc/hadoop/hdfs-site.xml文件
修改dfs.namenode.name.dir和dfs.datanode.name.dir两个属性的值,改为刚刚创建的两个文件夹datanode和namenode的绝对路径(注意不能直接把在Windows下的路径复制粘贴,路径URL用的是斜杠不是反斜杠,而且前面还要加一个斜杠)然后保存退出
在这里插入图片描述
执行hdfs namenode -format
sbin目录,启动start-all.cmd
在这里插入图片描述
namenode、datanode、resourcemanager、nodemanager

https://gitcode.net/mirrors/sardetushar/hadooponwindows?utm_source=csdn_github_accelerator

此时执行cmd中输入spark-shell
在这里插入图片描述
IDEA写一个Scala的demo并使用Spark-submit运行
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
spark-submit --class Hello HelloWorld.jar
在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 使用Scala编写Spark可以提高代码的可读性和可维护性,同时也可以利用Scala的函数式编程特性来编写更加简洁和高效的代码。在编写Spark应用程序时,需要使用Spark的API来操作RDD(弹性分布式数据集),并使用Scala的语法来定义函数和变量。同时,还需要使用Spark的集群管理工具来管理集群资源,以确保应用程序能够在分布式环境下高效地运行。总之,使用Scala编写Spark是一种非常有效的方式,可以帮助开发人员快速构建高性能的大数据应用程序。 ### 回答2: Spark是一个强大的分布式计算框架,是大数据处理和分析的必备工具。Spark使用Java和Scala语言编写,其中Scala被认为是Spark的“官方语言”。因此,使用Scala编写Spark可以带来一些明显的优势: 1. 高效的并发性和容错性 Scala是一种函数式编程语言,其并发处理和容错能力非常强。因此,使用Scala编写Spark可以提高应用程序的容错性和并发性能,并允许Spark应用程序在分布式环境中更加高效地运行。 2. 易于编写和调试 Scala语言具有简洁、灵活、易于阅读和编写的特点。它有一套强大的编译器和IDE支持,可以帮助开发人员加快Spark应用程序的开发和调试效率。 3. 高度可扩展的代码Scala兼容Java虚拟机,因此,Scala编写代码可以与Java代码无缝协作。此外,Scala还有大量的高质量库可以支持Spark的开发,如Spark本身所包含的ScalaSpark SQL。 总之,ScalaSpark的“官方语言”,使用Scala编写Spark可以提高性能、提高可扩展性、提高开发效率和提高代码重用性。因此,Scala被广泛应用于Spark生态系统,并被许多大型企业和研究机构所青睐。 ### 回答3: Scala 是一种多范式编程语言,旨在结合面向对象编程和函数式编程的最佳特性。Scala 语言的设计非常适合构建高效、并发和可扩展的大规模数据处理应用程序,因此广泛被用于 Apache Spark 的开发。 Apache Spark 是一个快速、分布式的计算框架,为大规模数据处理提供了高效的解决方案。Spark 具有高效的数据抽象层和强大的 API,允许开发人员使用不同的语言编写分布式计算应用程序。ScalaSpark 的默认编程语言,因此成为了 Spark 的生态系统中最重要的编程语言之一。 使用 Scala 可以让开发人员在保持高效性、并且让代码更易阅读,易于理解。而这些特性是在 Scala 的面向对象编程和函数式编程的技术支持下实现的。Scala 语言的函数式编程特性,使得 Spark 应用程序和算法可以使用带有高度抽象级别的处理类型和方法。 除此之外,在 Scala使用 Spark 还允许开发人员使用 REPL(交互式解释器)进行实时计算。REPL 方式可以对框架功能进行快速验证,相当于提供了丰富的分析工具对大数据进行实时处理。 Scala 的另一个优势是其强大的类型推导系统。Scala 可以通过类型推导系统自行推断变量类型和方法返回类型,这减少了开发人员的编码量,同时也帮助开发人员避免了类型错误。 因此,使用 Scala 编写 Spark 应用程序不仅保证了应用程序的高效性、可读性和可扩展性,还提供了丰富的分析工具,便于大规模数据处理的实时计算,并且通过 Scala 的强大类型推导系统减少了出错率。所以,在大规模数据处理的应用中,Scala 是用来编写 Spark 应用程序的最好选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值