1.首先我们要安装
安装Spark集群前,需要安装Hadoop环境
搭建Spark单机版环境
(一)前提是安装配置好了JDK(查看JDK版本)
(二)下载、安装与配置Spark
下载到本地。
2、将Spark安装包上传到虚拟机
将Spark安装包上传到ied虚拟机/opt
目录
3、将Spark安装包解压到指定目录
执行命令:tar -zxvf spark-3.3.2-bin-hadoop3.tgz -C /usr/local
4、配置Spark环境变量
执行vim /etc/profile
export SPARK_HOME=/usr/local/spark-3.3.2-bin-hadoop3
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
存盘后推出,命令:source /etc/profile
,让环境配置生效
利用print函数输出了一条信息
计算1 + 2 + 3 + …… + 100
输出字符直角三角形
3、使用Python版本Spark-Shell
执行pyspark
命令启动Python版的Spark-Shell
执行命令:pyspark