Spark,Hello World

首先下载Spark并解压缩到/apphome目录,/apphome/spark-1.6.1-bin-hadoop2.6
进入到这个目录后执行如下命令:bin/spark-shell
Spark 启动成功。

来实现第一个例子:

在spark shell 中依次输入如下命令:

val lines = sc.textFile("README.md")
lines.count()
lines.first()

需要说明的是每输入一行,回车后,都会有对应的日志出现。README.md是在/apphome/spark-1.6.1-bin-hadoop2.6 目录下面的。

截图如下:
这里写图片描述

第一行是加载README.md文件到spark中。
第二行是统计README.md文件的行数。
第三行是返回README.md文件的第一行。

到此,入门实例结束。很简单吧~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值