[Centos版]Hadoop运行环境的具体搭建过程(超详细)

纠结了非常久,最终还是决定开始更新大数据集群类的文章了。


操作前需要准备:
1.虚拟机镜像:CentOS-6.5-x86_64-bin-DVD1.iso
链接:https://pan.baidu.com/s/1O9a-6Sn7riGWG3mVQssTGg
提取码:rud1
2.jdk:jdk-8u144-linux-x64.tar.gz
链接:https://pan.baidu.com/s/1TdaCDaT_qriDMjbYFyphPw
提取码:qulj
3.hadoop:hadoop-2.7.2.tar.gz
链接:https://pan.baidu.com/s/1Wt0mAUHKJDSYTUM5-u6CYw
提取码:oofe
或者官网:
https://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/
上述的如果百度云下载的慢的话,可以去各大开源论坛或者官网下载
博主使用的工具为Xshell,非常方便的一个软件,感兴趣的话可以动动自己的小手,去官网下载


一. 安装Linux

1. 安装Linux(内存2G-4G,硬盘50G)

1
2
3

2. 安装VMTools(可不装,不过装了方便)

如果不会安装可以参考:
https://jingyan.baidu.com/article/597a0643356fdc312b5243f6.html
4

3. 关闭防火墙(重要)

关闭防火墙

    sudo service iptables stop
    
    sudo chkconfig iptables off

5

4. 设置静态IP,改主机名

  • 1. 修改IP
vim /etc/sysconfig/network-scripts/ifcfg-eth0

# 修改
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=static
NAME="eth0"
IPADDR=192.168.2.101     # 要看自己的网段
PREFIX=24
GATEWAY=192.168.2.2
DNS1=192.168.2.2

6

  • 2. 改主机名
    7
vim /etc/sysconfig/network

改HOSTNAME=那一行

5. 配置hosts文件

vim /etc/hosts
=============================
192.168.2.110   hadoop001
192.168.2.111   hadoop002
192.168.2.112   hadoop003
192.168.2.113   hadoop004
192.168.2.114   hadoop005
192.168.2.115   hadoop006
192.168.2.116   hadoop007
192.168.2.117   hadoop008
192.168.2.118   hadoop009
192.168.2.119   hadoop010

=============================

8

6. 创建用户名

创建一个一般用户bigdata,给他配置密码
    useradd bigdata
    passwd  bigdata

9

7. 配置用户为sudoers

    vim /etc/sudoers
    在root    ALL=(ALL)       ALL
    添加bigdata    ALL=(ALL)       NOPASSWD:ALL
    保存时wq!强制保存

10

8. 创建文件夹,并赋权限给新建的用户名

    mkdir /opt/module /opt/software
    chown bigdata:bigdata /opt/module /opt/software

11
如果只是想搭建伪分布式的话,到这里就可以了,不过下面要进行的操作都要登录到刚刚创建的bigdata,来进行操作。
关于分布式的那部分,会在搭建集群时,详细进行说明;
下面操作基本上都会使用Xshell这个软件进行,感兴趣的可以下载使用。

二. 安装JDK

在开始安装前,需要检查一下现有的JDK

# 查询是否安装Java软件:
[root@hadoop001 ~]# rpm -qa | grep java
java-1.7.0-openjdk-1.7.0.45-2.4.3.3.el6.x86_64
tzdata-java-2013g-1.el6.noarch
java-1.6.0-openjdk-1.6.0.0-1.66.1.13.0.el6.x86_64

# 如果安装的版本低于1.7,卸载该JDK:
[bigdata@hadoop001 jdk1.8.0_144]$ rpm -qa | grep java | xargs sudo rpm -e --nodeps


[root@hadoop001 ~]# rpm -qa | grep java

1. 上传文件到指定文件夹内

12

2. 在Linux系统下的opt目录中查看软件包是否导入成功

13

3. 解压JDK到/opt/module目录下

[bigdata@hadoop101 software]$ tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/

[bigdata@hadoop001 software]$ cd /opt/module/
[bigdata@hadoop001 module]$ ll
总用量 4
drwxr-xr-x. 8 bigdata bigdata 4096 722 2017 jdk1.8.0_144

4. 配置JDK环境变量

  • 1. 先获取JDK路径
[bigdata@hadoop001 jdk1.8.0_144]$ pwd
/opt/module/jdk1.8.0_144

  • 2. 打开/etc/profile文件
[bigdata@hadoop001 jdk1.8.0_144]$ sudo vim /etc/profile
#在profile文件末尾添加JDK路径


#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_144
export PATH=$PATH:$JAVA_HOME/bin

14

  • 3. 保存后退出 :wq
  • 4. 让修改后的文件生效
[bigdata@hadoop001 jdk1.8.0_144]$ source /etc/profile
  • 5. 测试JDK是否安装成功
[bigdata@hadoop001 jdk1.8.0_144]$ java -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
Java HotSpot(TM) 64-Bit Server VM (build 25.144-b01, mixed mode)

三. 安装Hadoop

1. 进入到Hadoop安装包路径下

2. 解压安装文件到/opt/module下面

[bigdata@hadoop001 jdk1.8.0_144]$ cd /opt/software/

[bigdata@hadoop001 software]$ tar -zxvf hadoop-2.7.2.tar.gz -C /opt/module/

3. 查看是否解压成功

[bigdata@hadoop001 software]$ cd /opt/module/
[bigdata@hadoop001 module]$ ll
总用量 8
drwxr-xr-x. 9 bigdata bigdata 4096 126 2016 hadoop-2.7.2
drwxr-xr-x. 8 bigdata bigdata 4096 722 2017 jdk1.8.0_144

4. 将Hadoop添加到环境变量

  • 1. 获取Hadoop安装路径
[bigdata@hadoop001 hadoop-2.7.2]$ pwd
/opt/module/hadoop-2.7.2

  • 2. 打开/etc/profile文件
[bigdata@hadoop001 hadoop-2.7.2]$ sudo vi /etc/profile

在profile文件末尾添加JDK路径:

##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

15

  • 3. 保存并退出 :wq!
  • 4. 让修改后的文件生效
[bigdata@hadoop001 hadoop-2.7.2]$ source /etc/profile

5. 测试是否安装成功

[bigdata@hadoop001 hadoop-2.7.2]$ hadoop version

16

四. Hadoop目录结构

查看Hadoop目录结构
17

  • 重要的目录如下:
    (1)bin目录:存放对Hadoop相关服务(HDFS,YARN)进行操作的脚本
    (2)etc目录:Hadoop的配置文件目录,存放Hadoop的配置文件
    (3)lib目录:存放Hadoop的本地库(对数据进行压缩解压缩功能)
    (4)sbin目录:存放启动或停止Hadoop相关服务的脚本
    (5)share目录:存放Hadoop的依赖jar包、文档、和官方案例

各位路过的朋友,如果觉得可以学到些什么的话,点个赞再走吧,欢迎各位路过的大佬评论,指正错误,也欢迎有问题的小伙伴评论留言,私信。每个小伙伴的关注都是本人更新博客的动力!!!

  • 23
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 16
    评论
你想知道如何在CentOS 7上搭建Hadoop吗?以下是一些基本步骤: 1. 首先,确保你已经安装了CentOS 7,并且具有root访问权限。 2. 更新系统:运行以下命令进行系统更新: ``` sudo yum update ``` 3. 安装Java:Hadoop需要Java环境,你可以通过以下命令安装Java: ``` sudo yum install java-1.8.0-openjdk-devel ``` 4. 配置环境变量:编辑`/etc/profile`文件,并添加以下行以配置JAVA_HOME和HADOOP_HOME环境变量: ``` export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 5. 下载和解压Hadoop:你可以从Apache Hadoop的官方网站下载最新本的Hadoop,并将其解压到你选择的目录中: ``` wget https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-X.X.X/hadoop-X.X.X.tar.gz tar -xzvf hadoop-X.X.X.tar.gz ``` 6. 配置Hadoop:进入Hadoop的目录,并编辑`etc/hadoop/hadoop-env.sh`文件,将`export JAVA_HOME`的路径更改为你的Java安装路径。 7. 配置Hadoop集群:编辑`etc/hadoop/core-site.xml`文件,并添加以下配置: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 8. 编辑`etc/hadoop/hdfs-site.xml`文件,并添加以下配置: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 9. 格式化HDFS:运行以下命令以格式化HDFS: ``` hdfs namenode -format ``` 10. 启动Hadoop运行以下命令启动Hadoop: ``` start-all.sh ``` 这些步骤会将Hadoop成功部署在CentOS 7上。请注意,这只是一个简单的指南,你可能需要根据你的具体需求进行一些调整和配置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 16
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值