01 在CentOS7中安装Hadoop

hadoop是大数据入门组件,主要包括两个服务,hdfs以及mapreduce,前者是存储,后者是计算。本文将阐述hadoop的安装。

1 系统、软件以及前提约束

  • CentOS 7 64 工作站 作者的机子ip是192.168.100.192,请读者根据自己实际情况设置
  • jdk1.8.0_162 已经安装完毕,并配置环境变量,作者的环境变量为/root/jdk1.8.0_162,请读者根据自己实际情况设置
    jdk安装 https://www.jianshu.com/p/08b94347bb8a
  • hadoop-2.5.2
    hadoop下载链接:https://pan.baidu.com/s/1c_skDYabCRSkS5hRUB6lFQ
    提取码:a00t
    hadoop-2.5.2.tar.gz已上传到192.168.100.192的/root目录下
  • 为去除权限对操作的影响,所有操作都以root进行

2 操作

  • 1 使用putty登录192.168.100.192,设置主机名
# 打开hosts文件
vim /etc/hosts
# 在hosts中添加以下内容
192.168.100.192 hadoop1

保存退出。

  • 2 解压hadoop-2.5.2.tar.gz,作者解压好的目录为/root/hadoop-2.5.2
tar -xvf hadoop-2.5.2.tar.gz
  • 3 编辑/root/hadoop-2.5.2/etc/hadoop/core-site.xml
    在configuration标签中加入以下内容,【注意:请读者一定按照自己的实际情况设置,例如主机的名称这里是hadoop1】
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/hadoop/tmp</value>
                <description>Abase for other temporary directories.</description>
        </property>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://hadoop1:9000</value>
        </property>
        <property>
                <name>io.file.buffer.size</name>
                <value>4096</value>
        </property>

退出保存后,创建上面设置的临时目录/usr/hadoop/tmp

mkdir -p /usr/hadoop/tmp
  • 5 编辑/root/hadoop-2.5.2/etc/hadoop/hdfs-site.xml
    在configuration标签中加入以下内容:
         <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:///usr/hadoop/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:///usr/hadoop/dfs/data</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
        </property>

退出保存后,创建上面涉及的两个文件夹:

mkdir -p /usr/hadoop/dfs/name
mkdir -p /usr/hadoop/dfs/data
  • 6 编辑/root/hadoop-2.5.2/etc/hadoop/mapred-site.xml
    在configuration标签中加入以下内容:
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
                <final>true</final>
        </property>
  • 7 编辑/root/hadoop-2.5.2/etc/hadoop/yarn-site.xml
    在configuration标签中加入以下内容:
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop1</value>
        </property>
        <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
  • 8 编辑/root/hadoop-2.5.2/etc/hadoop/hadoop-env.sh
    添加环境变量:
export JAVA_HOME=/root/jdk1.8.0_162
  • 9 编辑/root/hadoop-2.5.2/etc/hadoop/yarn-env.sh
    添加环境变量:
export JAVA_HOME=/root/jdk1.8.0_162
  • 10 格式化
# 进入bin目录
/root/hadoop-2.5.2/bin
# 格式化【注意:如果需要输入yes,请输入yes】
./hdfs namenode -format
  • 11 启动hdfs
# 进入sbin目录
cd /root/hadoop-2.5.2/sbin
# 启动【注意:如果需要输入密码,请输入密码】
./start-dfs.sh
  • 12 启动yarn
# 进入sbin目录
cd /root/hadoop-2.5.2/sbin
# 启动【注意:如果需要输入密码,请输入密码】
./start-yarn.sh
  • 13 验证,在命令行中输入jps命令
    得到以下结果,则安装和启动hadoop单机版成功:

     
     
    16204070-3a81d86b089ca4c3.png
    2.png
     

    至此,我们完成了安装和启动hadoop。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值