spark 本地化安装及配置

1-spark 官网-Apache Spark™ - Unified Engine for large-scale data analytics

2-点击download 

 3-继续选择-Download Spark: spark-3.4.1-bin-hadoop3.tgz

 4-点击后下载地址:Apache Downloads

 如下图,也可以直接选择该地址下载。

5-解压到目标目录即完成安装(注意一定要安装在全是英文的路径下), spark 解压后主要包含如下子目录:

部署local模式(直接解压即可,不需要配置)
启动spark
切换到spark的bin目录下,然后运行下面的命令./spark.shell

bin/   (工具程序目录)
conf/  (配置文件目录)
jars/  (scala Jar 包目录)
python/ (python package 目录)
sbin/  (服务程序管理脚本目录)
data —— Spark测试文件
examples —— Spark示例程序

6-配置本地环境变量:

SPARK_HOME 安装路径比如: D:\spark-3.4.1-bin-hadoop3\

再添加path - %spark_home%\bin

7-启动运行

再次双击:到spark的bin目录下的命令./spark.shell

顺利运行出现spark 界面即可,如下图:

8- 上图红色标记的部分-UI http :// ——这个内容因人而异,可以输入这个网址在你自己的浏览器下:可以看到运行程序命令的具体情况,这个算是spark 的可视化界面吧。

9-尝试案例

在你本地编写一个txt 文档,比如 a.txt 里面可以编写

hello world

hello java

hello spark

hello yaya

执行命令:

scala> sc.textFile("C:/tmp/").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect

运行结果:
res3: Array[(String, Int)] = Array(("",3), (hello,4), (yaya,1), (java,1), (world,1), (spark,1))

这样spark 即为运行成功。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值