<Zhuuu_ZZ>Spark(一)老生常谈的环境配置

一 下载安装包

1 官网下载

链接: Apache Spark.

2 网盘下载

链接: spark-2.4.5-bin-hadoop2.6.tgz.提取码:0pmd

二 上传至Linux虚拟机及解压

  • 上传压缩包至虚拟机/opt目录下
  • 解压:tar -zxvf spark-2.4.5-bin-hadoop2.6.tgz
  • 重命名:mv spark-2.4.5-bin-hadoop2.6 spark245

三 内置文件配置

  • 转到Spark的conf下:cd /opt/spark245/conf

  • 复制文件:cp spark-env.sh.template spark-env.sh

  • vi /opt/spark245/conf/spark-env.sh添加下方代码

export JAVA_HOEM=/opt/jdk1.8.0_221  //jdk安装位置
export SCALA_HOME=/opt/scala221     //scala安装位置
export SPARK_HOME=/opt/spark245     //spark安装位置
export SPARK_MASTER_IP=hadoopwei   //主机名
export SPARK_EXECUTOR_MEMORY=1G   //spark在java虚拟机分配的执行内存

在这里插入图片描述

  • 复制slaves.template文件:cp slaves.template slaves
  • 添加主机名,单机默认就好,集群需添加其他机器。
    在这里插入图片描述

四 环境变量配置

  • vi /etc/profile
export SPARK_HOME=/opt/spark245
export PATH=$PATH:$SPARK_HOME/bin

在这里插入图片描述

  • source一下使之生效:source /etc/profile

五 测试

1 本地模式

spark-shell

  • 输入spark-shell默认分配虚拟机全部内核数
    在这里插入图片描述- 输入下方代码即可看到spark使用核数。
sc.parallelize(List(1,2,3,4,5,6,7,8))
res0.partitions.size  

在这里插入图片描述

spark-shell --master local[*]

  • 是上方spark-shell的完整版
    在这里插入图片描述

spark-shell --master local[2]

  • 指定两核启动
    在这里插入图片描述
    在这里插入图片描述

2 单机模式

  • 首先启动spark(因为启动命令start-all跟hadoop相同,所以即使配置全局变量也会被覆盖而失效,那么就不配置,直接到sbin目录下启动。)
    • cd /opt/spark245/sbin
    • ./start-all.sh
    • jps
      在这里插入图片描述
  • 输入spark-shell --master spark://hadoopwei:7077启动单机模式

在这里插入图片描述

  • 新建一个窗口查看jps

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值