hadoop集群在vm虚拟机Linux系统下的搭建单、伪、全分布式搭建参考

首先在vm上安装一台Linux系统虚拟机,安装方法可以在网上查找

下面是安装好虚拟机之后的操作

可以下载一个finallshell工具,操作更方便

链接:https://pan.baidu.com/s/1dAdk7qvX4uEN2KLWZ5VHQw

提取码:9527

JDK1.8下载

链接:https://pan.baidu.com/s/1ElO1vHFRb6HR5ijRj2j_og 
提取码:9527

先在虚拟机系统上如下操作:

查看自己的IP

登录虚拟机

修改静态IP

首先找到/etc/sysconfig/network-scripts/下的ifcfg-ens33配置文件

vi /etc/sysconfig/network-scripts/ifcfg-ens33

把 BOOTPROTO = “dhcp” 改成 BOOTPROTO = “static” 表示静态获取,然后把 UUID 注释掉,把 ONBOOT 改为 yes,表示开机自动静态获取,然后在最后追加比如下面的配置:

IPADDR=192.168.241.161  #自己的ip地址,前9位和自己前面查看的相同,后三位可以150左右的值,我写了161,至于为什么可以网上查找

NETMASK=255.255.255.0

GATEWAY=192.168.241.2

DNS1=114.114.114.114

DNS2=8.8.8.8

IPADDR就是静态IP,NETMASK是子网掩码,GATEWAY就是网关或者路由地址

重启网络服务
centos6的网卡重启方法:service network restart
centos7的网卡重启方法:systemctl restart network

然后用自己设置的IPADDR=192.168.241.161  #自己的ip地址

连接finallshell

修改主机名 vi /etc/hostname

  

断开连接 shutdown -r

重新连接

检查是否有jdk

rpm -qa | grep jdk

rpm -qa | grep java

进入opt文件夹创建software和apps文件夹用来存储软件包和解压包

cd /opt/

mkdir software

mkdir apps

将安装包放入software文件夹中

然后进入software

 cd software

执行解压命令解压到apps文件夹

 tar -zxvf jdk-8u333-linux-x64.tar.gz -C /opt/apps/

解压完成进入apps文件夹

 cd ..

cd apps/

改名为jdk

 mv jdk1.8.0_333 jdk

配置环境变量

vi /etc/profile

按i 编辑

export JAVA_HOME=/opt/apps/jdk

export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/lib

按esc键退出编辑模式

按:wq 按回车保存退出

生效配置文件

source /etc/profile

检查配置文件

java -version

显示Java版本证明配置成功

也可以用执行java_home 方式验证

echo $JAVA_HOME

安装hadoop

安装包放到software文件夹中

进入software文件夹

将安装包安装到apps文件夹下面

tar -zxvf hadoop-2.7.6.tar.gz -C /opt/apps/

安装完成后,进入apps文件夹中,改名为hadoop

cd ..

cd apps/

mv hadoop-2.7.6 hadoop

配置环境变量

vi /etc/profile

export HADOOP_HOME=/opt/apps/hadoop

export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/lib:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

保存退出

生效配置文件

source /etc/profile

检查配置情况

hadoop version

显示hadoop版本,单节点版配置成功

接下来

伪分布式搭建

关闭防火墙

systemctl stop firewalld

systemctl disable firewalld.service

systemctl status firewalld

 vi /etc/selinux/config

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
以下是使用vmware搭建三个虚拟Hadoop分布式集群的步骤: 1. 下载vmware软件并安装,创建三个虚拟,分别命名为master、slave1、slave2。 2. 在每个虚拟中安装Ubuntu操作系统,并配置网络连接,保证三个虚拟可以互相通信。 3. 安装Java环境,可以选择OpenJDK或Oracle JDK。 4. 下载Hadoop安装包,解压后将文件夹移动到/usr/local目录下,并配置环境变量。 5. 修改Hadoop配置文件,进入Hadoop文件夹,将hadoop-env.sh.template重命名为hadoop-env.sh,打开hadoop-env.sh文件,将JAVA_HOME配置为Java的安装路径。 6. 修改core-site.xml文件,打开conf文件夹下的core-site.xml文件,在文件中添加以下内容: <configuration> <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> </configuration> 其中,master为主节点的名称,9000为HDFS端口号。 7. 修改hdfs-site.xml文件,打开conf文件夹下的hdfs-site.xml文件,在文件中添加以下内容: <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>/usr/local/hadoop/data/nameNode</value> </property> <property> <name>dfs.data.dir</name> <value>/usr/local/hadoop/data/dataNode</value> </property> </configuration> 其中,dfs.replication配置为1,表示数据备份数为1;dfs.name.dir和dfs.data.dir分别指定NameNode和DataNode的存储路径。 8. 修改mapred-site.xml文件,打开conf文件夹下的mapred-site.xml文件,在文件中添加以下内容: <configuration> <property> <name>mapred.job.tracker</name> <value>master:54311</value> </property> </configuration> 其中,master为主节点的名称,54311为Job Tracker端口号。 9. 配置SSH免密登陆,进入每个虚拟,使用ssh-keygen生成公私钥,将公钥添加到authorized_keys文件中,保证三个虚拟之间可以免密通信。 10. 启动Hadoop集群,进入Hadoop文件夹,执行以下命令: bin/hadoop namenode -format sbin/start-all.sh 其中,第一条命令是格式化NameNode,第二条命令是启动集群。 至此,使用vmware搭建三个虚拟Hadoop分布式集群完成。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值