众所周知,spark可以使用三种语言进行编写,分别是scala,phython,java三种语言,而且执行方式不同,Scala是用sbt编译打包,Java是用Maven进行编译打包,而phython则是用spark-submit提交运行。而sbt本身就是用scala进行编写的。这里记录以下自己在Linux下安装sbt的过程以及编译打包spark程序的流程,以做备忘。
1 .首先进入根目录创建相应的目录结构,执行下面的这些命令,这里-p参数表示创建多级目录
2 .之后通过cd 命令进入这里创建的scala目录下,通过vim SimpleApp.scala创建scala文件,里面是空的,添加下面这些内容,这个程序是用来统计一个文本中含有字母a和含有字母b的行数,这里指定的logFile是存放在Linux下的相应目录下,注意这里是///,这个logFile可以在windows下创建通过xftp4进行传输,也可以直接在linux下直接创建,这个内容是Spark压缩包中自带的
3 .之后在Linux下输入spark-shell,查看一下spark和scala对应的版本,记录下来,稍后会用到

本文详细介绍了在Linux系统中如何安装sbt,并使用sbt编译和打包一个Scala编写的Spark程序。从创建项目目录结构、编写Scala源代码,到设置sbt配置文件,再到下载sbt jar包、创建sbt脚本,以及最终的编译打包和使用spark-submit提交运行,整个过程一目了然。
最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



