Spark大数据处理笔记2.2搭建Spark

本文详细介绍了如何在已配置Hadoop和JDK的环境中,搭建Spark单机版。步骤包括下载Spark安装包,将其上传到虚拟机并解压,配置环境变量,最后通过执行`pyspark`启动Python版Spark-Shell。
摘要由CSDN通过智能技术生成

1.首先我们要安装

安装Spark集群前,需要安装Hadoop环境

搭建Spark单机版环境

(一)前提是安装配置好了JDK(查看JDK版本)

(二)下载、安装与配置Spark

 下载到本地。

2、将Spark安装包上传到虚拟机

将Spark安装包上传到ied虚拟机/opt目录

3、将Spark安装包解压到指定目录

执行命令:tar -zxvf spark-3.3.2-bin-hadoop3.tgz -C /usr/local 4、配置Spark环境变量

执行vim /etc/profile

export SPARK_HOME=/usr/local/spark-3.3.2-bin-hadoop3
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

存盘后推出,命令:source /etc/profile,让环境配置生效
 

 利用print函数输出了一条信息

 计算1 + 2 + 3 + …… + 100

输出字符直角三角形 

 3、使用Python版本Spark-Shell

执行pyspark命令启动Python版的Spark-Shell

执行命令:pyspark

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值