Spark Local环境部署

目录

1:规划:

1:想法:       

    2:  版本

2:spark配置文件部署

1:上传Spark安装包到/export下面

2:解压下载的Spark安装包并且改名

3:spark部署环境变量

1: /etc/profile环境

2:/root/.bashrc

4:测试

  1:bin/pyspark  

    1:进入pyspark环境

2:代码测试

    ​编辑

3:web页面访问 master:4040,

​编辑2:./spark-shell 

1:进入./spark-shell 环境

2:代码测试

3:web访问 master:4040

3:bin/spark-submit (PI)

1:作用

2:语法

3:web访问(master:4040)

5:总结

1图表

2端口:


1:规划:

masterslave1slave2
192.168.204.130192.168.204.131192.168.204.132

1:想法:       

所有大数据软件安装在/export目录下面,目前因为只是spark Locak模式,就创建在master上面吧,只要在一台说创建,比较简单。

后面我是打算有python敲spark程序,pyspark程序所以安装好hadoop,mysql,hive,anconda, zookeeper,等一些组件

      spark Locak模式必须安装好python解释器(推荐anconda)jdk 

    2:  版本

                 jdk: 1.8.0_161

                 anconda:  (Anaconda3-2023.09-0-Linux-x86_64)

                 Hadoop:3.3.2

                 spark:(spark-3.4.1-bin-hadoop3)

2:spark配置文件部署

1:上传Spark安装包到/export下面

2:解压下载的Spark安装包并且改名

tar -xvf spark-3.4.1-bin-hadoop3.tgz
mv spark-3.4.1-bin-hadoop3 spark

3:spark部署环境变量

1: /etc/profile环境

vim /etc/profile
#解释环境

#配置jdk环境
export JAVA_HOME=/export/jdk
export PATH=$JAVA_HOME/bin:$PATH

#配置anaconda环境
export ANACONDA_HOME=/export/anaconda/bin
export PATH=$ANACONDA_HOME/bin:$PATH

#配置pyspark虚拟环境
export PYSPARK_PYTHON=/export/anaconda3/envs/pyspark/bin/python3.11


#大数据框架
#配置hadoop环境
export HADOOP_HOME=/export/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
export PATH=$HADOOP_HOME/sbin:$PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

#配置spark环境
export SPARK_HOME=/export/spark

#配置zookeeper环境
export ZK_HOME=/export/zookeeper
export PATH=$ZK_HOME/bin:$PATH

#配置hive路径
export HIVE_HOME=/export/hive
export PATH=$HIVE_HOME/bin:$PATH

#指定进程的用户名字
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
                                           

2:/root/.bashrc

vim /root/.bashrc
export JAVA_HOME=/export/jdk
export PYSPARK_PYTHON=/export/anaconda3/envs/pyspark/bin/python3.11

4:测试

  1:bin/pyspark  

    可以提供一个 交互式的 Python解释器环境, 在这里面可以写普通python代码, 以及spark代码

    1:进入pyspark环境

cd /export/spark/bin
./pyspark

2:代码测试

print('哈哈')

sc.parallelize([1,23,4,45,65,6,7]).map(lambda x: x*10).collect()

    

3:web页面访问 master:4040,

这个端口号可以延升 4040 4041 4042(当同时打开多个环境才会延升 ,不然都是4040) 当这个环境退出后web页面访问不了,

2:./spark-shell 

1:进入./spark-shell 环境

这是scala环境,spark底层源码是用scala敲的

cd /export/spark/bin
./spark-shell

2:代码测试

sc.parallelize(Array(1,2,3,4,5)).map(x=> x + 1).collect()

3:web访问 master:4040

3:bin/spark-submit (PI)

1:作用

        提交指定的Spark代码到Spark环境中运行

2:语法

# 语法
cd /export/spark
bin/spark-submit [可选的一些选项] jar包或者python代码的路径 [代码的参数]

# 示例
bin/spark-submit /export/spark/examples/src/main/python/pi.py 10
# 此案例 运行Spark官方所提供的示例代码 来计算圆周率值.  后面的10 是主函数接受的参数, 数字越高, 计算圆周率越准确.
./spark-submit --master local[*] /export/spark/examples/src/main/python/pi.py 10000

3:web访问(master:4040)

5:总结

1图表

功能bin/pysparkbin/spark-shellbin/spark-submit
功能提供一个python提供一个scala提交java\scala\python代码到spark中运行
解释器环境用来以python代码执行spark程序提供一个python
解释器环境用来以scala代码执行spark程序提供一个scala提供一个scala
特点解释器环境 写一行执行一行解释器环境 写一行执行一行提交代码用
使用场景测试\学习\写一行执行一行\用来验证代码等测试\学习\写一行执行一行\用来验证代码等正式场合, 正式提交spark程序运行

2端口:

4040,如果开启多个,端口就会以加一延升,4040 4041 ........当程序退出,web页面访问不了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值