Linux修改hadoop配置文件及启动hadoop集群详细步骤

目录

一、配置Hadoop环境

1.查看Hadoop解压位置

2.配置环境变量

3.编辑环境变量

4.重启环境变量

5.查看Hadoop版本,查看成功就表示Hadoop安装成功了

二、修改配置文件

1.检查三台虚拟机:

2.切换到配置文件目录

3.修改 hadoop-env.sh 文件

4.修改 core-site.xml 文件

5.修改 mapred-site.xml 文件

6.修改 hdfs-site.xml 文件

7.修改 yarn-site.xml 文件

8.修改 workers 文件

三、给hadoop2、hadoop3分发文件

1.到存放hadoop的文件夹下

2.1.给hadoop2和hadoop3拷贝文件和环境变量

2.2.给hadoop2和hadoop3创建软连接

2.3.检查hadoop2和hadoop3是否拷贝成功

2.4.如果没有拷贝成功就将hadoop2和hadoop3的hadoop文件夹删除,然后在拷贝一次

四、修改脚本文件

1.切换到hadoop的sbin目录下

2.修改 start-dfs.sh 脚本文件

3.修改 stop-dfs.sh 脚本文件

4.修改 start-yarn.sh 脚本文件

5.修改 stop-yarn.sh 脚本文件

 五、启动hadoop集群

1.格式化HDFS

2.启动hadoop

3.启动yarn

4.查看进程

5.关闭防火墙

6.访问Hadoop的web网站

7.停止hadoop

8.停止yarn

9.启动hadoop和yarn遇到的问题

六、编辑启动和停止脚本文件

1.进入脚本文件目录

2.编写集群控制文件

3.给 hadoop.sh 授权

4.启动集群,查看进程

5.停止集群,查看进程

七、编辑同步执行命令脚本

1.编辑

2.给 xcall.sh 授权

3.执行脚本

4.脚本的另一种写法


一、配置Hadoop环境

1.查看Hadoop解压位置

pwd

2.配置环境变量

vim /etc/profile

3.编辑环境变量

“/opt/server/hadoop”填自己Hadoop的存放位置。

export HADOOP_HOME=/opt/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin

4.重启环境变量

source /etc/profile

5.查看Hadoop版本,查看成功就表示Hadoop安装成功了

hadoop version

二、修改配置文件

1.检查三台虚拟机:

是否都安装了jdk和hadoop并且配置了环境变量,确保虚拟机之间都能互相ping通以及两两之间能够ssh免密登陆,都完成了网卡、主机名、hosts文件等配置。

ip地址 主机名 节点

192.168.147.200

hadoop 主节点

192.168.147.201

hadoop2 子节点

192.168.147.203

hadoop3 子节点

2.切换到配置文件目录

cd /opt/server/hadoop/etc/hadoop

3.修改 hadoop-env.sh 文件

路径改成自己的jdk安装路径(vim命令用不了就用vi)

vim hadoop-env.sh

export JAVA_HOME=/opt/server/jdk

4.修改 core-site.xml 文件

vim core-site.xml

<configuration>
<property>
                      <name>fs.defaultFS</name>
                      <!-- 用于指定namenode地址在机器master上-->
                      <value>hdfs://hadoop:8020</value>
          </property>
                      <!-- 用于配置hadoop的数据目录-->
          <property>
                      <name>hadoop.tmp.dir</name>
                      <value>/opt/server/hadoop/data</value>
          </property>
</configuration>

5.修改 mapred-site.xml 文件

vim mapred-site.xml

<configuration>
<!-- 指定MapReduce运行时框架,这里指定在yarn上-->
       <property>
              <name>mapreduce.framework.name</name>
              <value>yarn</value>
       </property>
</configuration>

6.修改 hdfs-site.xml 文件

vim hdfs-site.xml

<configuration>
<!--指定HDFS副本的数量,不能超过机器节点数-->
              <property>
                            <name>dfs.replication</name>
                            <value>3</value>
              </property>
              <!-- 为secondary namenode配置所在的IP和端口-->
              <property>
                            <name>dfs.namenode.secondary.http-address</name>
                            <value>hadoop2:50090</value>
              </property>
</configuration>

7.修改 yarn-site.xml 文件

vim yarn-site.xml

<configuration>

           <!-- 指定yarn集群的管理者(resourcemanger)的地址-->
           <property>
                      <name>yarn.resourcemanager.hostname</name>
                      <value>hadoop</value>
           </property>
           <property>
                      <name>yarn.nodemanager.aux-services</name>
                      <value>mapreduce_shuffle</value>
           </property>

</configuration>

  • 7
    点赞
  • 51
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
要在Linux下使用ZooKeeper同步Hadoop集群配置文件,可以按照以下步骤进行实际操作: 1. 安装和配置ZooKeeper:在每个节点上安装和配置ZooKeeper服务器。确保每个节点的ZooKeeper配置文件(通常是`zoo.cfg`)都指向相同的ZooKeeper集群。 2. 创建一个用于存储Hadoop配置的ZooKeeper znode:使用ZooKeeper客户端连接到任意一个ZooKeeper节点,并创建一个用于存储Hadoop配置的znode。例如,你可以执行以下命令: ``` $ zkCli.sh -server <zookeeper_server>:<port> [zk: <zookeeper_server>:<port>(CONNECTED) 0] create /hadoop-config "" ``` 这将在ZooKeeper根目录下创建一个名为`hadoop-config`的znode。 3. 将Hadoop配置文件上传到ZooKeeper:将你想要同步的Hadoop配置文件上传到ZooKeeper znode中。你可以使用ZooKeeper客户端的`set`命令来实现。例如,假设你想上传`core-site.xml`文件,可以执行以下命令: ``` [zk: <zookeeper_server>:<port>(CONNECTED) 1] set /hadoop-config/core-site.xml "@/path/to/core-site.xml" ``` 这将将`core-site.xml`文件的内容设置为znode的值。 4. 在Hadoop配置中使用ZooKeeper路径:在Hadoop集群的每个节点上,将Hadoop配置文件中相关的配置项修改为ZooKeeper路径。例如,在`core-site.xml`中,将`fs.defaultFS`的值修改为`zookeeper://<zookeeper_server>:<port>/hadoop-config/core-site.xml`。 ``` <property> <name>fs.defaultFS</name> <value>zookeeper://<zookeeper_server>:<port>/hadoop-config/core-site.xml</value> </property> ``` 这样,Hadoop集群的所有节点都将使用ZooKeeper中的配置文件进行配置。 5. 启动Hadoop集群启动Hadoop集群的各个组件,它们将从ZooKeeper中获取配置信息并进行相应的配置。 通过这些步骤,你可以使用ZooKeeper同步Hadoop集群配置文件,确保所有节点使用相同的配置信息。当你需要更新配置时,只需上传新的配置文件到ZooKeeper znode中,并重启Hadoop集群,它们将自动获取到新的配置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值