实战-Spark单机环境安装教程

Spark的单机安装方法很简单,这里我已spark2.4.5为例演示,最后启动的是cdh安装的spark2.4.0.

  1. 下载 http://spark.apache.org/downloads.html
  2. 解压tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz -C /usr/local
  3. 配置环境变量 vi ~/.bash_profile
export SPARK_HOME=/usr/local/spark-2.4.5-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
  1. 刷新环境变量
source  ~/.bash_profile
  1. Local模式启动
    Local 模式是最简单的一种运行方式,它采用单节点多线程方式运行,不用部署,开箱即用,适合日常测试开发。

    local:只启动一个工作线程;
    local[k]:启动 k 个工作线程;
    local[*]:启动跟 cpu 数目相同的工作线程数。

  2. 启动spark-shell

spark-shell --master local[2]
[syq@cdh ~]$ sudo -u hdfs spark-shell --master local[2]
[sudo] syq 的密码:
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
20/03/12 00:06:13 WARN lineage.LineageWriter: Lineage directory /var/log/spark/lineage doesn't exist or is not writable. Lineage for this application will be disabled.
Spark context Web UI available at http://cdh:4040
Spark context available as 'sc' (master = local[2], app id = local-1583942771326).
Spark session available as 'spark'.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 2.4.0-cdh6.2.0
      /_/
         
Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_181)
Type in expressions to have them evaluated.
Type :help for more information.

scala> 

在这里插入图片描述
我们也可以查看Spark的Web UI界面,访问http://192.168.2.97:4040
在这里插入图片描述
至此:spark环境搭建成功

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

再难也要坚持

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值