CentOS7下安装Hadoop2.9.2单机模式

一、准备

CentOS7
jdk-8u212-linux-x64.rpm
hadoop-2.9.2.tar.gz

关闭防火墙 和 SELinux
systemctl stop firewalld.service
systemctl disable firewalld.service

setenforce 0
vi /etc/selinux/config    将“SELINUX=enforcing”值改为“disabled”

安装jdk1.8
# rpm -ivh jdk-8u212-linux-x64.rpm
# vi /etc/profile.d/java.sh        输入以下几行
export JAVA_HOME=/usr/java/jdk1.8.0_212-amd64
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH
# source /etc/profile       (执行后生效)
# java -version

二、安装单机模式

# tar zxvf hadoop-2.9.2.tar.gz
# ln -s hadoop-2.9.2 hadoop

# vi /etc/profile.d/hadoop.sh  内容如下
export HADOOP_HOME=/data/soft/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

# source /etc/profile
# whereis hdfs   验证环境变量

Hadoop单机模式没有HDFS,只有MapReduce程序。并且hadoop发布的版本默认就是单机模式,不需要做任何配置,适合本机调试。

(hadoop环境也可以单独设置jdk,编辑 hadoop/etc/hadoop/hadoop-env.sh 的 JAVA_HOME 即可。这步不是必须的)

2.1测试

Hadoop解压缩完后就可以用于单机版的测试。

# mkdir -p /data/input
# vi /data/input/data.txt  内容如下
hello world
hello hadoop

# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount /data/input/data.txt /data/output
# cat /data/output/*
hadoop  1
hello   2
world   1

上面是mapreduce运行完后的结果。运行日志有一个保错 EBADF: Bad file descriptor 不用管,忽略即可。

三、安装伪分布式模式

伪分布式是完全分布式的特例,只有一个节点。

3.1 配置文件

涉及hadoop/etc/hadoop目录下的4个配置文件: core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml

etc/hadoop/core-site.xml :
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/data/hadoop/tmp</value>
    </property>
</configuration>

etc/hadoop/hdfs-site.xml :
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

如果想使用yarn 则需要编辑下面两个配置文件
etc/hadoop/mapred-site.xml :
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

etc/hadoop/yarn-site.xml :
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

3.2 免密登录

使用命令 ssh localhost 看是否能免密登录,如果不行则执行下面的命令配置免密登录
# ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
# chmod 0600 ~/.ssh/authorized_keys

再验证ssh localhost是否能免密登录。
# ssh localhost
Last login: Sat Jul 13 22:02:41 2019 from localhost

3.3 格式化

# mkdir -p /data/hadoop/tmp
# hdfs namenode -format
格式化只做一次即可,再次格式化会丢失datanode的数据

3.4 启动

# start-dfs.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /data/soft/hadoop-2.9.2/logs/hadoop-root-namenode-localhost.localdomain.out
localhost: starting datanode, logging to /data/soft/hadoop-2.9.2/logs/hadoop-root-datanode-localhost.localdomain.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /data/soft/hadoop-2.9.2/logs/hadoop-root-secondarynamenode-localhost.localdomain.out

# jps
17185 DataNode
17091 NameNode
17561 Jps
17357 SecondaryNameNode
[root@localhost hadoop]# start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /data/soft/hadoop-2.9.2/logs/yarn-root-resourcemanager-localhost.localdomain.out
localhost: starting nodemanager, logging to /data/soft/hadoop-2.9.2/logs/yarn-root-nodemanager-localhost.localdomain.out

# jps
17185 DataNode
17091 NameNode
17767 Jps
17705 NodeManager
17357 SecondaryNameNode
17613 ResourceManager

http://192.168.100.160:50070/   HDFS管理界面(即namenode和datanode)
http://192.168.100.160:50090/   SecondaryNameNode管理界面
http://192.168.100.160:8088     yarn管理界面

3.5 测试

准备测试数据
# mkdir -p /data/input
# vi /data/input/data.txt  内容如下
hello world
hello hadoop
# hdfs dfs -mkdir /input
# hdfs dfs -put /data/input/data.txt /input
# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount /input/data.txt /data/output
# hdfs dfs -cat /data/output/part-r-00000
hadoop  1
hello   2
world   1
说明测试通过。

如果想查看hdfs文件系统中的内容,可以使用hdfs dfs命令,如:
# hdfs dfs -ls /
Found 3 items
drwxr-xr-x   - root supergroup          0 2019-07-13 23:04 /data
drwxr-xr-x   - root supergroup          0 2019-07-13 23:03 /input
drwx------   - root supergroup          0 2019-07-13 22:58 /tmp
# hdfs dfs -ls /data
Found 1 items
drwxr-xr-x   - root supergroup          0 2019-07-13 23:04 /data/output

停止命令: stop-dfs.sh, stop-yarn.sh 或 stop-all.sh

参考资料:

http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html

本文内容到此结束,更多内容可关注公众号

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值