一、Hadoop平台安装

该文详细描述了在Linux环境中卸载OpenJDK,配置SSH免密登录,关闭防火墙,修改主机名以及创建网络映射的过程。接着,它指导如何设置Java和Hadoop的环境变量,并将配置文件分发到集群中的其他节点。此外,文章还涵盖了Hadoop的相关配置,如core-site.xml,hadoop-env.sh,hdfs-site.xml,mapred-site.xml,yarn-site.xml等,以及启动Hadoop服务的步骤。最后,提到了在Windows中配置主机名映射以配合Linux集群的使用。
摘要由CSDN通过智能技术生成

卸载自带 OpenJDK(最小化安装不用执行)

[root@master ~]# rpm -qa | grep java

[root@master ~]# rpm -e --nodeps  x x x

配置免密登录

生成密钥对:[root@master ~]# ssh-keygen -t rsa(回车四次)

发送公钥:[root@master ~]# ssh-copy-id 192.168.100.10

ssh-copy-id 192.168.100.20

ssh-copy-id 192.168.100.30

关闭防火墙:

systemctl stop firewalld

systemctl disable firewalld

修改主机名:

hostnamectl set-hostname master

hostnamectl set-hostname slave1

hostnamectl set-hostname slave2

映射:

vi /etc/hosts

192.168.100.10 master

192.168.100.20 slave1

192.168.100.30 slave2

配置Java、Hadoop环境变量

[root@localhost src]# vi /etc/profile

export JAVA_HOME=/usr/local/src/jdk1.8.0_181/

export PATH=$PATH:$JAVA_HOME/bin

export HADOOP_HOME=/usr/local/src/hadoop-2.7.6/

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

发送从机:

scp -r /etc/profile slave1:/etc/

scp -r /etc/profile slave2:/etc/

配置文件:

1、vi core-site.xml

<configuration>

   <property>

      <name>fs.defaultFS</name>

      <value>hdfs://master:9000</value>

   </property>

   <property>

      <name>io.file.buffer.size</name>

      <value>131072</value>

   </property>

   <property>

      <name>hadoop.tmp.dir</name>

      <value>file:///usr/tmp/hadoop</value>

   </property>

</configuration>

2、vi hadoop-env.sh

export JAVA_HOME=/usr/local/src/jdk1.8.0_181/  (25行)

3、vi hdfs-site.xml

<configuration>

   <property>

     <name>dfs.replication</name>

     <value>1</value>

   </property>

   <property>

     <name>dfs.namenode.name.dir</name>

     <value>file:///hdfs/namenode</value>

   </property>

   <property>

     <name>dfs.datanode.data.dar</name>

     <value>file:///hdfs/datanode</value>

   </property>

   <property>

     <name>dfs.block.size</name>

     <value>134217728</value>

   </property>

   <property>

     <name>dfs.http.address</name>

     <value>master:50070</value>

   </property>

   <property>

     <name>dfs.namenode.secondary.http-address</name>

     <value>master:9001</value>

   </property>

   <property>

     <name>dfs.webhdfs.enbled</name>

     <value>true</value>

   </property>

   <property>

     <name>dfs.permissions</name>

     <value>false</value>

   </property>

</configuration>

4、cp mapred-site.xml.template mapred-site.xml

vi mapred-site.xml

<configuration>

   <property>

     <name>mapreduce.framework.name</name>

     <value>yarn</value>

   </property>

   <property>

     <name>mapreduce.jobhistory.address</name>

     <value>master:10020</value>

   </property>

   <property>

     <name>mapreduce.jobhistory.webapp.address</name>

     <value>master:19888</value>

   </property>

</configuration>

5、vi yarn-site.xml

<configuration>

   <property>

     <name>yarn.resourcemanager.hostname</name>

     <value>master</value>

   </property>

   <property>

     <name>yarn.nodemanager.aux-services</name>

     <value>mapreduce_shuffle</value>

   </property>

   <property>

     <name>yarn.resourcemanager.address</name>

     <value>master:8032</value>

   </property>

   <property>

     <name>yarn.resourcemanager.scheduler.address</name>

     <value>master:8030</value>

   </property>

   <property>

     <name>yarn.resourcemanager.resource-tracker.address</name>

     <value>master:8031</value>

   </property>

   <property>

     <name>yarn.resourcemanager.admin.address</name>

     <value>master:8033</value>

   </property>

   <property>

     <name>yarn.resourcemanager.webapp.address</name>

     <value>master:8088</value>

   </property>

</configuration>

6、vi slaves

master

slave1

slave2

分发Hadoop:

scp -r /usr/local/src/hadoop-2.7.6  slave1:/usr/local/src/

scp -r /usr/local/src/hadoop-2.7.6  slave2:/usr/local/src/

分发jdk:

scp -r /usr/local/src/jdk1.8.0_181/  slave1:/usr/local/src/

scp -r /usr/local/src/jdk1.8.0_181/  slave2:/usr/local/src/

刷新生效:

[root@master hadoop]# hadoop namenode -format

启动服务:

[root@master hadoop]# start-all.sh

配置Windows:

C:\Windows\System32\drivers\etc

192.168.100.10 master

192.168.100.20 slave1

192.168.100.30 slave2

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

流年、素写一世繁华!

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值