大数据学习01_Hadoop: Hadoop集群的构建

Hadoop开发环境搭建

克隆虚拟机

  1. 设置关闭虚拟机DHCP: 找到虚拟机的虚拟网络编辑器,关闭其DHCP服务,在NAT设置中检查其网关
    在这里插入图片描述
    在这里插入图片描述

    要更改VMnet8网卡,只有这个网卡负责NAT模式

    在虚拟机中默认使用eth0网卡,文件/etc/sysconfig/network-scripts/ifcfg-eth0记载eth0网卡的配置,对其进行更改如下: 删除DHCP协议对应的行,添加BOOTPROTO="static"表示使用静态IP.
    在这里插入图片描述

  2. 右键点击虚拟机,选择管理->克隆,选择创建完整克隆.

  3. 对克隆出的虚拟机的IP地址进行更改:
    先对/etc/udev/rules.d/70-persistent-net.rules文件进行更改,该文件记录网卡信息,克隆出的新虚拟机有两条网卡记录,其中eth0为源虚拟机的MAC地址,eth1为新生成的MAC地址.因为两个网卡的eth0的MAC地址会发生冲突,因此我们删除掉新虚拟机的eth0网卡,并将其eth1网卡命名为eth0网卡.
    更改前/etc/udev/rules.d/70-persistent-net.rules文件内容如下:
    虚拟机刚克隆好时/etc/udev/rules.d/70-persistent-net.rules文件内容
    修改后的/etc/udev/rules.d/70-persistent-net.rules文件内容如下:
    修改后的/etc/udev/rules.d/70-persistent-net.rules文件内容
    在文件/etc/sysconfig/network-scripts/ifcfg-eth0中修改克隆出的虚拟机的ip地址以及mac地址(其MAC地址在/etc/udev/rules.d/70-persistent-net.rules文件中能够看到)
    在这里插入图片描述
    更改好文件之后使用service network restart重启网络服务,之后这太克隆机的局域网就配置好了,既可以访问外网,也可以访问局域网中的其他节点.

  4. 另外,可以在/etc/sysconfig/network中修改节点的HOSTNAME,在/etc/hosts修改hosts文件.
    在这里插入图片描述
    在这里插入图片描述

安装JDK及Hadoop环境

  1. /opt目录下创建module,software文件夹,software文件夹用来存储jar包,moudle文件夹存放解压后的软件
  2. 下载jdkHadoop的安装包
    wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz
    wget --no-check-certificate --no-cookies --header "Cookie: oraclelicense=accept-securebackup-cookie" https://download.oracle.com/otn-pub/java/jdk/8u201-b09/42970487e3af4f5aa5bca3f542482c60/jdk-8u201-linux-x64.tar.gz
    
  3. 下载好后将tar包解压到moudle目录下
  4. 配置java环境变量:
    1. 将java的jar包解压到moudle目录下
    2. /etc/profile进行更改,在文件末尾添加下面几行
      ## JAVA_HOME
      export JAVA_HOME=/opt/moudle/jdk1.8.0_201
      export PATH=$PATH:$JAVA_HOME/bin
      
    3. 执行命令source /etc/profile运行profile文件
    4. 执行java -version命令查看JDK环境.
  5. 安装Hadoop:
    1. 将Hadoop的jar包解压到moudle目录下
    2. /etc/profile进行更改,在文件末尾添加下面几行
      ## HADOOP_HOME
      export HADOOP_HOME=/opt/moudle/hadoop-2.7.7
      export PATH=$PATH:$HADOOP_HOME/bin
      export PATH=$PATH:$HADOOP_HOME/sbin
      
    3. 执行命令source /etc/profile运行profile文件
    4. 执行hadoop命令查看hadoop.

Hadoop目录结构

Hadoop的目录结构如下所示

.
├── bin		# 存放二进制文件
│   ├── container-executor
│   ├── hadoop
│   ├── hdfs
│   ├── yarn
│   └── ...
├── etc		# 存放各种配置文件
│   └── hadoop
├── include	# 存放C语言头文件
│   ├── xxx.h
│   └── ...
├── lib		# 存放本地库
│   └── ...
├── libexec	# 存放本地库
│   └── ...
├── sbin	# 存放Hadoop集群启动停止命令
│   ├── hadoop-daemon.sh
│   ├── slaves.sh
│   ├── start-all.sh
│   ├── start-dfs.sh
│   ├── start-yarn.sh
│   ├── stop-all.sh
│   ├── stop-dfs.sh
│   ├── stop-yarn.sh
│   ├── yarn-daemon.sh
└── share	# 存放说明文档和官方例程
    ├── doc
    └── hadoop
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值