SparkRDMA的环境安装

简介

Spark 问世以来,一直打着内存计算的口号,用来强调它对大数据处理的速度快。虽然spark的一些计算确实是在内存中计算和缓存,但是spark 的shuffle阶段必须要经历写磁盘的操作。因此一个spark程序shuffle性能的高低,直接影响整个程序性能的高低。
Spark shuffle 的本质就是从不同的节点获取数据,然后对数据处理。获取数据一般采用NettyTransportService协议,也是TCP协议的一种优化。通过网络抓取数据,但是要从目标主机把数据抓取过来,就需要首先把数据拷贝到Sockets缓冲区,然后再拷贝到TransportProtocol Driver,再到NIC Driver, 最后 NIC 通过网络将数据发送到目标主机的 NIC,目标主机又经过上面步骤将数据传输到应用程序,这个过程中网络数据的传输很大一部分时间用于数据的拷贝,如果shuffle阶段需要拉去的数据量很大,那么这个过程就会占用很大一部分时间,对spark程序有巨大的影响。为了提高shuffle阶段网络拉取数据的性能,就有了SparkRDMA技术。
SparkRDMA (spark Remote Direct Memory Access)技术,即远程直接内存访问技术,它将数据直接从一台主机的内存传输到另外一台计算机的内存,无需双方操作系统的介入。因此在spark集群的环境下,跨节点拉取数据会节约一定的时间,提高shuffle的性能,进而提高整个程序的性能。
本篇博客就来详细介绍SparkRDMA的环境安装。默认大家都已经安装的Hadoop、spark、scala 、maven 、JDK等一些必要的程序。本人使用的环境为 CentOS 7.4, hadoop-2.7.1, spark-2.2.2 jdk-1.8, maven-3.5.4,scala-2.11.12
SparkRDMA ShuffleManager 是由Mellanox Technologies公司开发并开源的一个项目https://github.com/Mellanox/SparkRDMA。下面详细介绍安装SparkRDMA的步骤。

步骤一:网络环境的搭建

要想使用SparkRDMA环境,必须采用特定的网卡,也就是Mellanox Technologies 的网卡,这也是这个公司在社区极力推荐把SparkRDMA ShuffleManager 整合到Spark的源码包里,但是根据社区目前的反应,目前是不会把它整合到里面去的。

1,查看机器是否安装Mellanox网卡

参考网址https://community.mellanox.com/docs/DOC-3068

#lspci –v | grep Mellanox

在这里插入图片描述
如果出现上图的结果,则可以继续下一步,否则就需要给自己的机器添加网卡。

2,安装Mellanox驱动

可以去 http://www.mellanox.com/page/products_dyn?product_family=26&mtag=linux_sw_drivers 的网址下,去下载相应版本的驱动,我使用的是ARMv8的服务器,所以下载的驱动版本如下图所示:
在这里插入图片描述

里面有iso 镜像包,tgz的压缩包,还有相应的源码包。由于Mellanox 的网卡驱动是要和自己的内核版本相匹配的,iso 镜像版一般是不会和你使用的内核版本相匹配,因此我们需要下载tgz 的包,进而编译出和我们内核版本相应的驱动版本。参考网址:http://www.mellanox.com/related-docs/prod_software/Mellanox_OFED_Linux_User_Manual_v4.0.pdf
具体编译驱动的步骤如下:

1) 下载相应的驱动并编译生成支持自己机器内核的驱动

解压后目录中的内容如下:
在这里插入图片描述

里面有个mlnx_add_kernel_support.sh的脚本,这个脚本就是进行编译生成适配自己机器内核驱动的脚本,执行如下命令:

./mlnx_add_kernel_support.sh -m /directory/MLNX_OFED_LINUX-4.5-1.0.1.0-rhel7.4alternate-aarch64.tgz / --make-tgz
其中/directory/是生成新的驱动的目录,名称MLNX_OFED_LINUX-4.5-1.0.1.0-rhel7.4alternate-aarch64.tgz可以就是你下载的版本的名称,只不过这个是支持你内核版本的。
生成的压缩包为MLNX_OFED_LINUX-4.5-1.0.1.0-rhel7.4alternate-aarch64-ext.tgz,解压后的内容如下:
在这里插入图片描述
可以看到多了一个supported_kernels的文件,里面的内容是:
在这里插入图片描述
这个就是你机器的内核版本。不同的机器内核肯定会有所不同。

2)安装驱动

解压后里面有个mlnxofedinstall的脚本,这个就是安装驱动的脚本。直接执行该脚本:
./mlnxofedinstall
等待驱动安装成功即可。
最后执行:
/etc/init.d/openibd restart
reboot

3, 网络配置

重启机器后,需要端口的模式是否是Erhernet,输入下面命令:
ibv_devinfo
会显示下面的内容:
在这里插入图片描述
看最下面一行,link_layer Ethernet 如果是这样就继续,
如果是:link_layer InfiniBand 则需要输入以下命令:参考网址:https://community.mellanox.com/docs/DOC-3068
mst start
mst status
mlxconfig -d /dev/mst/mt4121_pciconf0 s LINK_TYPE_P1=2
Port 1 set to Ethernet mode
Reboot
重启后,再次检查
输入ibv_devinfo
配置好以上的端口后,就需要给这个网卡设置网信息,包括IP地址,子网掩码等
输入ibdev2netdev 查看网卡的名字
我的显示如下:
在这里插入图片描述
设置IP 和netmask
输入下面命令:
ifconfig enP5p1s0 31.31.31.41 netmask 255.255.255.0
IP地址根据自己的网络设置,也可以按照上面设置,不影响。
最后需要关闭网卡的Rx和TX
输入:ethtool -A enP5p1s0 rx off tx off
输入:ethtool -a enP5p1s0
会显示下面的内容,则网卡和网络配置已经完成。
Pause parameters for enP5p1s0:
Autonegotiate: off
RX: off
TX: off

以上就完成了使用SparkRDMA的网络环境;下面是步骤二:SparkRDMA的安装以及环境配置

步骤二:SparkRDMA的安装以及环境配置

1,下载SparkRDMA

到这个网址下载
https://github.com/Mellanox/SparkRDMA/releases
我这里下载的是
在这里插入图片描述
Source code版本。你也可以下载编译好的,里面有和spark 版本相应的依赖包,直接用就可以。

2,编译SparkRDMA-3.1源码

把源码包解压,进去SparkRDMA-3.1的目录,
输入以下命令:
mvn -DskipTests clean package -Pspark-2.2.0
等待一会,编译完成后,会在该目录下生成target文件夹
在这里插入图片描述
进入target文件夹,里面的内容如下:
在这里插入图片描述
这个spark-rdma-3.1-for-spark-2.2.0-jar-with-dependencies.jar的依赖包就是我们需要的.

3,编译生成 libdisni.so 文件

返回SparkRDMA-3.1的目录下,输入:
git clone https://github.com/zrlio/disni.git 获取disni安装包,
然后执行:
cd disni
git checkout tags/v1.7 -b v1.7

cd libdisni
./autoprepare.sh
./configure --with-jdk=/path/to/java8/jdk
sudo make
sudo make install
其中/path/to/java8/jdk 是JDK 安装的位置,我的是/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-3.b13.el7_5.aarch64/
安装完成后会在 /usr/local/lib/的目录下生成如下的文件:
在这里插入图片描述

4,配置spark

进入SPARK_HOME/conf 下,在spark-default.conf的文件里加入以下内容:

spark.driver.extraClassPath /Path/to/SparkRDMA/target/spark-rdma-3.1-for-spark-2.2.0-jar-with-dependencies.jar
spark.executor.extraClassPath /Path/to/SparkRDMA/target/spark-rdma-3.1-for-park-2.2.0-jar-with-dependencies.jar
spark.driver.extraJavaOptions -Djava.library.path=/usr/local/lib/
spark.executor.extraJavaOptions -Djava.library.path=/usr/local/lib/
spark.shuffle.manager org.apache.spark.shuffle.rdma.RdmaShuffleManager
spark.shuffle.compress false
spark.shuffle.spill.compress false

其中/Path/to/SparkRDMA/target/spark-rdma-3.1-for-park-2.2.0-jar-with-dependencies.jar
是你的spark-rdma-3.1-for-park-2.2.0-jar-with-dependencies.jar所在的位置。

如果需要在Hibench下测试,需要在HIBENCH_HOME/conf目录下的spark.conf文件中添加以下内容:
spark.driver.extraJavaOptions -Djava.library.path=/usr/local/lib/
spark.executor.extraJavaOptions -Djava.library.path=/usr/local/lib/
spark.driver.extraClassPath /Path/to/SparkRDMA-3.1/target/spark-rdma-3.1-for-spark-2.2.0-jar-with-dependencies.jar
spark.executor.extraClassPath /Path/to/SparkRDMA-3.1/target/spark-rdma-3.1-for-spark-2.2.0-jar-with-dependencies.jar
spark.shuffle.manager org.apache.spark.shuffle.rdma.RdmaShuffleManager
spark.shuffle.compress false
spark.shuffle.spill.compress false
spark.broadcast.compress false
spark.broadcast.checksum false
spark.locality.wait 0

以上就是整个SparkRDMA环境的配置,如果是ARMv8的server,在Hibench 测试中数据量为large 以上时会出现 NullPointerException的错误,这是由于ARM的内存page 大小为64K 导致的,X86的page为4K,估计这个BUG 会在下一个版本进行修复,或者用我提供的这个依赖包也是可行的。 https://download.csdn.net/download/fengshaungme/10846139

用Hibench 测试SparkRDMA的效果 https://github.com/Mellanox/SparkRDMA/wiki/Running-HiBench-with-SparkRDMA
可以进入HIBENCH_HOME/report的hibench.report 看一下效果。
SparkRDMA单节点伪分布式测试是看不出来效果的,因为数据压根就不会通过网络传输,因此要测试,就必须搭建集群环境,每个worker 都需要进行上述的环境配置。

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值