【hadoop】【Linux】在阿里云服务器上搭建Hadoop集群(单机版)(centos7)

1.jdk的安装(JDK8)

历史版本下载地址:https://www.oracle.com/java/technologies/javase/javase8-archive-downloads.html

将下载的安装包jdk-8u144-linux-x64.tar上传至/usr/java目录下。

然后进入/usr/java目录解压

tar -zxvf jdk-8u144-linux-x64.tar.gz

解压完成之后返回到根目录的etc文件夹下,改写profile配置文件

cd /etc
vi /etc/profile

在最后添加

export JAVA_HOME=/usr/java/jdk1.8.0_144
export JAVA_BIN=/usr/java/jdk1.8.0_144/bin
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

dk1.8.0_144就是上面的jdk压缩包解压后的文件名(视情况修改)

vi命令执行后,将显示profile文件内容。输入i回车进入insert模式。在文件最后添加上述内容后,按esc退出该模式,输入:wq,执行保存并退出。

最后记得更新配置文件

source /etc/profile

测试是否安装成功

java -version

在这里插入图片描述

出现上述内容,则成功!

2.修改主机名映射

在/etc/hosts文件中修改映射

#127.0.0.1	localhost	localhost.localdomain	localhost4	localhost4.localdomain4
#::1	localhost	localhost.localdomain	localhost6	localhost6.localdomain6

ip地址	Laboratroy319003	Laboratroy319003

注意这里的主机名Laboratroy319003,后面修改配置文件需要用到。

3.下载安装Hadoop

v2.7.3压缩包下载地址:https://hadoop.apache.org/release/2.7.3.html

下载完成后上传至服务器的/usr/hadoop路径下。

进行解压缩

tar -zxf hadoop-2.7.3.tar.gz

修改配置文件

【修改/etc/profile文件,在最后添加下列内容】

export HADOOP_HOME=/usr/hadoop/hadoop-2.7.3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

保存后用source命令更新。

source /etc/profile

【修改hadoop-env.sh文件】

将25行

# The java implementation to use.
export JAVA_HOME=${JAVA_HOME}

修改为

# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.8.0_144

上述路径是前面配置Jdk的文件夹位置

【修改core-site.xml文件】

在configuration中添加:

<!-- 制定HDFS的老大(NameNode)的地址 -->
<property>
    <name>fs.defaultFS</name>
	<value>hdfs://Laboratroy319003:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录[能自动生成目录] -->
<property>
	<name>hadoop.tmp.dir</name>
	<value>/Laboratroy319003/hadoop/tmp</value>
</property>

【修改hdfs-site.xml文件】

在configuration中添加:

<!-- 指定HDFS副本的数量 -->
    <property>
         <name>dfs.replication</name>
         <value>1</value>
    </property>
    <property>
         <name>dfs.namenode.name.dir</name>                 <value>/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
          <name>dfs.datanode.data.dir</name>                      <value>/usr/local/hadoop/tmp/dfs/data</value>
    </property>

【修改mapred-site.xml文件】

需要复制一个模板文件

在/usr/hadoop/hadoop-2.7.3/etc/hadoop下

cp mapred-site.xml.template mapred-site.xml

然后vi mapred-site.xml

添加

<!-- 指定mr运行在yarn上 -->
		<property>
			<name>mapreduce.framework.name</name>
			<value>yarn</value>
        </property>

【修改yarn-site.xml文件】

在configuration添加

<!-- 指定YARN的老大(ResourceManager)的地址 -->
		<property>
			<name>yarn.resourcemanager.hostname</name>
			<value>Laboratroy319003</value>
        </property>
		<!-- reducer获取数据的方式 -->
        <property>
			<name>yarn.nodemanager.aux-services</name>
			<value>mapreduce_shuffle</value>
        </property>

格式化namenode

hadoop namenode -format

报错:

SHUTDOWN_MSG: Shutting down NameNode at Laboratroy319003/172.19.57.112

不用理会,向上翻如果有下列信息,则说明已经成功。

INFO common.Storage: Storage directory /usr/local/hadoop/tmp/dfs/name has been successfully formatted.

启动hadoop

start-dfs.sh
start-yarn.sh

这一过程需要yes三次并输入三次root密码

最后验证是否成功

jps

最后出现下列结果则表示成功!

|

参考

大佬写的很详细:https://blog.csdn.net/leanaoo/article/details/83098354

非常感谢!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Hadoop集群的步骤如下: 1. 安装Java 首先需要安装Java,Hadoop需要Java环境才能运行。可以使用以下命令安装Java: ``` sudo yum install java-1.8.0-openjdk-devel ``` 2. 下载Hadoop 从官方网站下载Hadoop 3.3.1版本,然后解压到目录中。可以使用以下命令: ``` wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz tar -zxvf hadoop-3.3.1.tar.gz sudo mv hadoop-3.3.1 /usr/local/hadoop ``` 3. 配置Hadoop环境变量 编辑`/etc/profile`文件,添加以下内容: ``` export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop export PATH=${PATH}:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin ``` 然后执行以下命令使配置生效: ``` source /etc/profile ``` 4. 配置Hadoop集群Hadoop集群中,需要指定一个节点作为NameNode,其他节点作为DataNode。可以在`/usr/local/hadoop/etc/hadoop`目录下找到`core-site.xml`和`hdfs-site.xml`两个配置文件,进行以下修改: 在`core-site.xml`文件中添加以下内容: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://namenode:9000</value> </property> </configuration> ``` 其中,`namenode`是NameNode节点的主机名或IP地址。 在`hdfs-site.xml`文件中添加以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> ``` 其中,`dfs.replication`指定了数据备份数量,`dfs.namenode.name.dir`和`dfs.datanode.data.dir`指定了NameNode和DataNode的数据存储路径。 5. 配置YARN YARN是Hadoop的资源管理器,需要进行相应的配置。可以在`/usr/local/hadoop/etc/hadoop`目录下找到`yarn-site.xml`文件,进行以下修改: ``` <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>resourcemanager</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> ``` 其中,`yarn.resourcemanager.hostname`指定了ResourceManager节点的主机名或IP地址。 6. 启动Hadoop集群 按照以下顺序启动Hadoop集群: ``` start-dfs.sh start-yarn.sh ``` 7. 验证Hadoop集群 可以通过访问以下网址来验证Hadoop集群是否正常运行: ``` http://namenode:9870/dfshealth.html http://resourcemanager:8088/cluster ``` 其中,`namenode`和`resourcemanager`分别是NameNode和ResourceManager节点的主机名或IP地址。 以上就是在CentOS 7上搭建Hadoop 3.3.1集群的步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值