scala概念随笔

1、面向函数式编成:函数即参数

2、scala跑在java平台,scala程序编译成.class文件,由jvm解析处理,所以需要java来处理,

3、scala是面向对象,面向函数的基于静态类型(常量)的编程语言。

4、常量为主,有隐士转换

5、线程的处理,采用消息通信机制;

6、消息机制:kafka,上层架构就是软件架构,消息之间的传递,一般都是点对点的;而基于sorkeyde的机制,构建2端,客户端和服务器端,他们之间的交互,两个端口相互处理;再往后就是2端的请求和相应,java消息服务;共享:实时的消息传递,共享消息,共享数据,直接入库,数据库可以共享,数据库的压力很大;

现在消息队列:好几个系统共同访问数据库,压力越来越大,峰值来临的时候,就没办法了,阻塞了就;异步处理:解决了系统间的通信,结合并发处理,

7、scala是异步的,基于消息队列的,所以并发很强,线程之间的传递都是靠消息机制,来出发,一定是异步处理,

8、kafka就是消息队列,峰值来临,有队列进行;

9、安装2.11.8 原因:spark版本是2.1.2版本,由scala的2.11.8编译的;

10、win安装:注意:最好不带中文,不能有空格,否则会抛主类找不到。。。

必须安装jdk,1.8版本以上

11、+ 就是个方法,a + b 就相当于a调用了加方法参数为b

12、scala的返回值是可以省略的,他是可以通过类型推断返回;推断是通过函数体的最后一行作为他的返回类型;

13、scala数组的定义:args(0);定义都是小括号,java是[]

14、scala为什么快?

1,内存,2,不可变,MR计算引擎,MR的job之间有很强的关系,第一个的输出是第二个的输入;Map的结果不存,溢血到本地,reduce会把本地数据读取;mr中间数据过程不存储,中间出错,50步,就得重新开始,mr多耗费资源,mr做离线比较好;3、spark的rdd就是不可变的集合,每对任何一个数据集做操作,会生成新的数据集,不会对以前的有影响,随意出问题不用重新开始,4、spark分布式处理数据,5、spark基于内存,内存装不下就直接溢血到磁盘,6、MR中间结果算出存磁盘,spark中间结果存储到内存;7、spark没有保障,因为基于内存,如果宕机会丢失数据,所以spark计算过程中其中一步要持久化磁盘,

15、scala中的元组最多是22元组,元组是从1开始算

16、scala的object和类不是一个性质,object定义的类是程序的入口,就像是java的主函数是的,类的实例化要在object中定义;

17、如果你的单利object的类的名字和你正常定义class类的没名字一样,就可以共享你的私有的属性,而名字不一样就不能共享。名字一样的object和class类,class是单例object的伴生类,单例object是class的伴生对象;

18、函数的参数默认都是不变的,传进的数值是调用函数,

19、scala的变量定义0x或者0X为16进制;而在2.1.0以后就没有八进制的存在;现在的版本所有的都是十进制和十六进制赋值;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值