![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Scala
LAllenKing
这个作者很懒,什么都没留下…
展开
-
Scala初体验
首先我们要在windows系统中安装Scala,我下的scala-2.13.0版本,将其解压完后,配置环境变量。 先配置SCALA_HOME,将你的scala安装路径填入值中 然后配置path,将安装路径下的bin目录地址填入值中 最后配置ClassPath,将下面代码填入值中 .;%SCALA_HOME%\bin; 环境变量配置完成后,菜单运行cmd测试配置成功与否 如图所示,出现上图结...原创 2019-09-17 21:26:14 · 84 阅读 · 0 评论 -
Scala深度学习1
参数 在scala中,变量类型统一用val表示,常量则用var表示,如下程序中,就会输出num1到4的变量类型 object BasicDaraType{ def main(args: Array[String]): Unit = { val num1 = 100 //Int val num2 = 100L //Long val num3 = 12.5F //Float val num4 = ...原创 2019-09-18 13:25:31 · 330 阅读 · 0 评论 -
Scala深度学习2
day02 scala中的抽象类 abstract class Father(newName:String) { protected var name:String=newName //抽象方法 def eat(food:String):Unit //普通方法 def run():Unit={ println(this.name+"is running...") } ...原创 2019-09-18 21:38:18 · 296 阅读 · 0 评论 -
如何在hadoop完全分布式中安装spark和scala
1.1 机器准备 准备两台以上Linux服务器,安装好JDK1.8 1.2 下载Spark安装包 上传解压安装包 上传spark-2.1.1-bin-hadoop2.7.tgz安装包到Linux上 解压安装包到指定位置 tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz 1.3 配置Spark Spark的部署模式有Local、Local-Cluster、Stan...原创 2019-09-18 22:00:17 · 1098 阅读 · 0 评论 -
如何在IDEA中编写Spark的WordCount程序
1:spark shell仅在测试和验证我们的程序时使用的较多,在生产环境中,通常会在IDE中编制程序,然后打成jar包,然后提交到集群,最常用的是创建一个Maven项目,利用Maven来管理jar包的依赖。 2:配置Maven的pom.xml: <?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://mave...原创 2019-09-20 16:50:48 · 1091 阅读 · 0 评论