FT2000+ arm64服务器 openEuler 部署hadoop单机伪集群并测试基准性能

平台信息

 

创建用户,并切换

useradd hadoop
su hadoop
cd ~

下载镜像

镜像下载地址

https://mirrors.bfsu.edu.cn/apache/hadoop/core/hadoop-3.3.1/hadoop-3.3.1-aarch64.tar.gz

多线程下载指令

axel -n 800 https://mirrors.bfsu.edu.cn/apache/hadoop/core/hadoop-3.3.1/hadoop-3.3.1-aarch64.tar.gz

解压

tar -xvf hadoop-3.3.1-aarch64.tar.gz
cd hadoop-3.3.1

单机伪集群配置

vim etc/hadoop/core-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://localhost:9000</value>
        </property>
</configuration>
vim etc/hadoop/hdfs-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/home/hadoop/namenode</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/home/hadoop/datanode</value>
        </property>
</configuration>

启动hdfs服务

声明环境变量

export JAVA_HOME=/usr/lib/jvm/java-1.8.0

格式化namenode

# 格式化namenode
./bin/hdfs namenode -format

注意观察/home/hadoop/namenode中已产生数据文件

配置ssh免密登录

ssh-keygen 
ssh-copy-id hadoop@localhost

启动存储服务

./sbin/start-dfs.sh

查看进程状态

jps -lv

netstat -lnetp | grep java

 

基准测试 

TestDFSIO 吞吐性能测试

./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.3.1-tests.jar TestDFSIO -write -nrFiles 500 -size 100MB -bufferSize 8388608 -resFile /tmp/testDFSIOwrite.log

期间简单监控指令

vmstat -w -t 1

默认情况下的测试结果

 附:麒麟云主机8C4G测试结果

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要实现Linux服务器集群,可以使用虚拟化技术,比如VMware、VirtualBox等虚拟机软件,将5台虚拟机安装Linux操作系统,并且在同一网络下,配置好网络连接和IP地址。 接下来,可以在每台Linux服务器安装和配置SSH服务,以方便远程管理和操作。然后需要安装和配置NFS服务,使得所有Linux服务器可以共享文件系统。 最后,可以在Linux服务器集群部署Hadoop服务器。具体步骤如下: 1. 安装Java环境:Hadoop需要Java环境支持,因此需要在每台服务器安装Java环境。 2. 下载并解压Hadoop:从官网下载Hadoop最新版本,并解压到某个目录下,如/usr/local/hadoop。 3. 配置Hadoop环境变量:在每台服务器的/etc/profile或者~/.bashrc文件中配置Hadoop环境变量,如下: ``` export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 4. 配置Hadoop集群:在每台服务器Hadoop配置文件中修改配置,如core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml等,需要根据实际情况配置。 5. 格式化Hadoop文件系统:在其中一个服务器上,执行以下命令格式化Hadoop文件系统: ``` $ hdfs namenode -format ``` 6. 启动Hadoop集群:在其中一个服务器上,执行以下命令启动Hadoop集群: ``` $ start-all.sh ``` 7. 测试Hadoop集群:在其中一个服务器上,执行以下命令测试Hadoop集群: ``` $ hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar pi 10 100 ``` 以上是基本的步骤,如果需要更详细的操作步骤和配置,可以参考Hadoop官方文档或者其他教程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值