Linux系统下配置Spark

本文档详细介绍了在Linux系统,特别是Centos7.x环境下,如何配置和管理Spark服务。通过wget下载安装Spark,然后在/home/bigdata/cluster目录下解压并重命名文件。接着,对slave和spark-env配置文件进行修改以适应系统环境。最后,提供了启动和关闭Spark服务的步骤。
摘要由CSDN通过智能技术生成

说明:

  • 操作系统:Centos7.x
  • 虚拟机:VirtualBox
  • 工具:FinalShell

步骤:

  1. wget 安装 sprak
wget https://d3kbcqa49mib13.cloudfront.net/spark-2.1.1-bin-hadoop2.7.tgz
  1. 进入 /home/bigdata/cluster 下,解压 tgz 文件,并且重命名
tar -xf spark-2.1.1-bin-hadoop2.7.tgz 
mv spark-2.1.1-bin-hadoop2.7/ spark
  1. 修改 slave 配置文件
cd spark/
cd ./conf/
cp slaves.template  slaves
vim slaves

在这里插入图片描述

# 在配置中将localhost修改为自己的主机名字 我的叫node1

在这里插入图片描述

  1. 修改 spark-env 配置文件
cp ./spark-env.sh.template  ./spa
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值