Scala入门到大数据二

 

这里我们使用spark作为数据引擎,在此基础上实现我们的大数据应用。

一、spark的安装

首先需要安装的就是java环境,安装特定的spark版本需要特定的java版本,可从spark源码中的pom文件中查看java版本要求,安装好java环境之后进入spark官网(http://spark.apache.org/downloads.html),直接下载。spark不依赖hadoop,但是如果你已经安装了一个hadoop集群或者安装好的hdfs,那就下载对应的版本。

下载完成之后解压,tar -xf XXX (本文以linux环境演示) ,x是解压,f是指定要解压的文件的名字。

二、shell的使用

spark带有交互式的shell,可以作即时数据分析。执行./bin/spark-shell就可以打开,我在启动的时候遇到过Caused by: java.net.UnknownHostException错误,原因是linux的主机名没有在/etc/hosts中,hostname查看主机名,然后ping hostname看通不通,不通的话就会出现上述的错误,在/etc/hosts中假如主机名即可。修复错误之后正常启动。得到如下图。

无

会发现信息还是挺多的,提示的内容中也说了可以调整日志级别为warn,到conf目录下,复制log4j.properties.template一份在conf下为log4j.properties,修改log4j.rootCategory=INFO, console为log4j.rootCategory=WARN, console

启动之后就可以开始做一些简单的计算任务了,

无

这里的sc不用声名,shell启动时就已经创建了这个SparkContext对象来用于访问spark。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
一、Scala核心编程课程简介近年来随着大数据的兴起,大数据核心框架Spark和Kafka也受到到广泛关注, Spark底层是Scala实现的, 因此也带火了Scala语言,目前Scala被全球知名公司(如:谷歌、百度、阿里、Twitter、京东等)广泛用于Spark开发。新一代的物联网时代到来,会对大数据应用人才的需求越加紧迫。 尚硅谷网罗和整合了学员很喜爱的师资,打造出专注于Spark开发的Scala课程,我们讲解Scala核心编程技术,同时也讲解编程思想、设计模式和Scala底层实现,让您有豁然开朗的感受。、课程内容和目标本课程重点讲解Scala核心编程,内容包括: Scala语言概述、运算符、程序流程控制、数据结构之集合、Map映射、过滤、化简、折叠、扫描、拉链、视图、并行集合、高阶函数、函数柯里化、偏函数、参数推断、控制抽象、Trait、面向对象编程、异常处理、惰性函数、Akka及Actor模型、Spark Master和Worker通讯、隐式转换、隐式参数、工厂模式、单例模式、观察者模式、装饰者模式、代理模式、泛型、上下界、视图界定、上下文界定、协变逆变不变和源码剖析。通过系统全面的学习,学员能掌握Scala编程思想和Scala底层机制,为进一步学习Spark打下坚实基础。三、谁适合学1.希望以较低的投入和风险,来了解自己是否适合转型从事Spark开发的求职人员。2.有一定的Java基础,或者自学过一些Java书籍与视频资料,想系统掌握Scala语言的程序员。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值