Linux配置静态IP,映射,配置jdk,hadoop,Hadoop集群配置及启动

目录

 修改主机名

配置映射

获取网关

配置网关,ip地址

重启网卡

 免密登录

 解压jdk到src文件夹下

修改jdk1.8.0_311 名字为jdk

解压Hadoop到src文件夹下

修改hadoop-2.7.7 名字为hadoop

jdk配置环境变量

配置hadoop环境变量

让已配置的环境变量生效

启动Java,Hadoop检查一下是否配置成功

进入hadoop目录

编辑hadoop-env.sh文件

 编辑core-site.xml文件

 编辑hdfs-site.xml文件

 编辑mapred-site.xml文件

编辑yarn-site.xml文件

添加主机名。删除默认的localhost

将集群主节点的环境变量拷贝到另外两台子节点上

将环境变量拷贝到另外两台主机

使环境变量立即生效

将Hadoop,jdk整个文件拷贝并覆盖到另外两台子节点

Hadoop集群测试

格式化hadoop命令

关闭防火墙

全部启动

输入jps查看

 在浏览器上方输入ip地址加端口号查看

 修改主机名

vim /etc/hostname

slave

配置映射

#三台机器一样
vim /etc/hosts

192.168.196.130 slave
192.168.196.131 slave1
192.168.196.132 slave2

获取网关

nmcli device show

配置网关,ip地址

vim /etc/sysconfig/network-scripts/ifcfg-ens33
TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"      #设置为静态IP模式
DEFROUTE="yes" 
IPADDR="192.168.196.130"    #设置静态IP
NETMASK="255.255.255.0"   #设置子网掩码
DNS1="192.168.196.2"      #设置DNS地址
GATEWAY="192.168.196.2"   #设置网关
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="enp3s0"
UUID="ddc227be-8516-4d71-8890-c550d764ef11"
DEVICE="enp3s0"
ONBOOT="yes"            #开机生效 

重启网卡

service network restart

 免密登录

#按三次回车
ssh-keygen -t rsa
ssh-copy-id slave    #第一台主机名
ssh-copy-id slave1    #第二台主机名
ssh-copy-id slave2    #第三台主机名

以上结束之后在另外两台机器各自配一遍,然后输入

ssh slave1

如果可以直接登入,说明配置成功

 解压jdk到src文件夹下

tar zxvf /h3cu/jdk-8u311-linux-x64.tar.gz -C /usr/local/src/

修改jdk1.8.0_311 名字为jdk

mv  /usr/local/src/jdk1.8.0_311 /usr/local/src/jdk

解压Hadoop到src文件夹下

tar zxvf /h3cu/hadoop.2.7.7.tar.gz -C /usr/local/src/

修改hadoop-2.7.7 名字为hadoop

mv /usr/local/src/hadoop.2.7.7/usr/local/src/hadoop

jdk配置环境变量

vim /root/.bash_profile
添加以下变量路径
#jdk
export JAVA_HOME=/usr/local/src/jdk
PATH=.:$JAVA_HOME:$JAVA_HOME/bin:$PATH:$HOME/bin

配置hadoop环境变量

vim /root/.bash_profile
#hadoop
export HADOOP_HOME=/usr/local/src/hadoop
PATH=.:$JAVA_HOME:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH:$HOME/bin

让已配置的环境变量生效

source /root/.bash_profile

启动Java,Hadoop检查一下是否配置成功

进入hadoop目录

cd /usr/local/src/hadoop/etc/hadoop

编辑hadoop-env.sh文件

vim hadoop.env.sh
#把export JAVA_HOME改为

export JAVA_HOME=/usr/local/src/jdk

 编辑core-site.xml文件

vim core-site.xml
#翻到最下面
<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://slave:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/local/src/hadoop/tmp</value>
        </property>
</configuration>

 编辑hdfs-site.xml文件

vim hdfs-site.xml
#翻到最下面
<configuration>
        <property>
                <name>dfs.nameservices</name>
                <value>slave</value>    #主机名
</configuration>

 编辑mapred-site.xml文件

vim mapred-site.xml
#翻到最下面
<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>

编辑yarn-site.xml文件

vim yarn-site.xml
#翻到最下面
<configuration>

<!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>slave</value>    #主机名
        </property>
        <property>
                <name>yarn.nodemanager.aux-service</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>

添加主机名。删除默认的localhost

vim slaves
slave        #第一台主机名
slave1       #第二台主机名
slave2       #第三台主机名

将集群主节点的环境变量拷贝到另外两台子节点上

将环境变量拷贝到另外两台主机

scp -r /root/.bash_profile slave1:/root/.bash_profile
scp -r /root/.bash_profile slave2:/root/.bash_profile

使环境变量立即生效

source /root/.bash_profile

将Hadoop,jdk整个文件拷贝并覆盖到另外两台子节点

scp -r /usr/local/src/ slave1:/usr/local/
scp -r /usr/local/src/ slave2:/usr/local/

Hadoop集群测试

格式化hadoop命令

hdfs namenode -format

关闭防火墙

临时关闭防火墙

systemctl stop firewalld

彻底关闭防火墙

systemctl disable firewalld.service

全部启动

cd /usr/local/src/hadoop/sbin
start-all.sh

输入jps查看

 在浏览器上方输入ip地址加端口号查看

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值