Spark基础实验

博主的spark建立在yarn上,已经提前安装好了hadoop2.7.3
记得联网后再进行实验,否则可能报错如下:
pyspark spark-shell无法指定被请求的地址: Service ‘sparkDriver’ failed after 16 retries (on a random free port)
进入hadoop下的sbin文件夹,终端输入命令

./start-all.sh

随即浏览器打开localhost:8088可查看网页观测情况如下:
在这里插入图片描述来到spark的sbin运行命令

./start-all.sh

浏览器打开localhost:8080可查看网页观测情况如下:
在这里插入图片描述

  • 运行Spark自带的示例程序
cd /usr/Spark/spark/
./bin/run-example SparkPi 2>&1 | grep "Pi is roughly"

结果如下:
在这里插入图片描述

  • spark-shell
  1. 进入scala命令行模式
cd /usr/Spark/spark/
./bin/spark-shell 
  1. 输入相关命令进行字符统计或简单计算实验
scala> 1+2+3+4
res0: Int = 10
scala> 9*2
res2: Int = 18

scala> val textFile = sc.textFileFile("file:///usr/Spark/spark/READEME.md")
scala> textFile.count()
res4: Long = 109
scala> val linesCountWithSpark=textFile.filter(line=>line.contains("Spark")).count()
linesCountWithSpark: Long = 20
  1. 在生产环境中部署需要开发独立的Spark应用程序编写应用程序代码。

编译打包:
scala代码:sbt(Simple Build Tool)
Java代码:Maven
Python代码:无需打包
提交Spark中运行:

/usr/Spark/spark/bin/spark-submit --class "SimpleApp" ~/sparkapp/target/scala-2.12.10/simple-project_2.12.10.jar
  1. 退出Spark Shell
scala> :quit

更多详情可参见 林子雨老师 的博文:
Spark安装和编程实践(Spark2.4.0)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值