hadoop2.9.2安裝

hadoop安装-centsos7

创建用户

[root@master .ssh]# useradd hadoop
[root@master .ssh]# password hadoop
bash: password: command not found…
[root@master .ssh]# passwd hadoop
Changing password for user hadoop.
New password:
Retype new password:
passwd: all authentication tokens updated successfully.
[root@master .ssh]# su hadoop

修改hostname

vi /etc/hostname
输入master

修改IP地址

cd /etc/sysconfig/network-scripts/
vi ifcfg-eno16777736

原:

TYPE=Ethernet
BOOTPROTO=dhcp
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
IPV6_FAILURE_FATAL=no
NAME=eno16777736
UUID=55cdf40e-3990-47be-ba94-79a7d98ce611
DEVICE=eno16777736
ONBOOT=no

修改后:

TYPE=Ethernet
BOOTPROTO=static
IPADDR=192.168.2.201
BROADCAST=192.168.2.1
DNS1=192.168.2.1
NETMASK=255.255.255.0
NM_CONTROLLED=no
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=yes
IPV6_AUTOCONF=yes
IPV6_DEFROUTE=yes
IPV6_FAILURE_FATAL=no
IPV6_PEERDNS=yes
IPV6_PEERROUTES=yes
UUID=55cdf40e-3990-47be-ba94-79a7d98ce611
DEVICE=eno16777736
ONBOOT=yes
PEERDNS=yes
PEERROUTES=yes

修改host映射

vi /etc/hosts

192.168.2.201 master
192.168.2.202 slave0
192.168.2.203 slave1

在这里插入图片描述

查看防火墙状态

systemctl status firewalld.service
在这里插入图片描述
linux默认启动是启动防火墙的,这里我们需要关掉防火墙

systemctl stop firewalld.service

关闭防火墙自启

systemctl disable firewalld.service

在这里插入图片描述

安装jdk

在root账号下安装jdk

下载jdk拖拽到admin下

授权

chmod 777 jdk jdk-8u161-linux-x64.tar.gz

创建jdk保存目录,并将

mkdir /usr/java

移动安装包

mv jdk-8u161-linux-x64.tar.gz /usr/java

解压

tar -zxvf jdk-8u161-linux-x64.tar.gz

配置环境变量

vi /etc/profile

末尾添加

export JAVA_HOME=/usr/java/jdk1.8.0_161
export JRE_HOME=/usr/java/jdk1.8.0_161/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH

重新加载/etc/profile
source /etc/profile
在这里插入图片描述

验证成功

免登录配置

master节点配置s

生成秘钥

ssh-keygen -t rsa

然后一路回车就好
在这里插入图片描述

生成的秘钥在.ssh目录下/home/hadoop/.ssh/id_rsa.pub

将公钥文件复制到已授权目录

cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

修改文件权限

chmod 600 ~/.ssh/authorized_keys

在这里插入图片描述

复制文件到slave节点

scp ~/.ssh/authorized_keys hadoop@slave0:~/
在这里插入图片描述

创建slave0秘钥,并移动从主节点传递过来的秘钥

ssh-keygen -t rsa

mv authorized_keys ~/.ssh/

cd ~/.ssh

chmod 600 authorized_keys
在这里插入图片描述

slave1同上配置

scp ~/.ssh/authorized_keys hadoop@slave1:~/

配置完毕后再master测试

ssh slave0
在这里插入图片描述
如图效果,不用输入密码说明成功

退出 exit即可
在这里插入图片描述

hadoop安装

下载hadoop并解压

http://mirrors.shu.edu.cn/apache/hadoop/common/
在这里插入图片描述

解压

tar -zxvf ~/hadoop/hadoop-2.9.2.tar.gz

配置hadoop-env.sh

cd ~/hadoop-2.9.2/etc/hadoop/

vi hadoop-env.sh

修改java路径

/usr/java/jdk1.8.0_161
在这里插入图片描述

yarn环境

vi yarn-env.sh
在这里插入图片描述

核心文件core-site.xml

vi core-site.xml

中间添加内容

<property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
</property>
    <!-- 指定hadoop运行时产生文件的存储路径 -->
<property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoopdata</value>
</property>

在这里插入图片描述

配置文件系统

vi hdfs-site.xml

	<name>dfs.replication</name>
    <value>1</value>

在这里插入图片描述

配置yarn-site.xml文件

vi yarn-site.xml

<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>master:18040</value>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>master:18030</value>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>master:18025</value>
</property>
<property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>master:18141</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>master:18088</value>
</property>

在这里插入图片描述

配置mapreduce

拷贝并重命名

cp mapred-site.xml.template mapred-site.xml

修改文件

vi mapred-site.xml

<!-- 通知框架MR使用YARN -->
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

在这里插入图片描述

配置master的slaves

vi slaves

删除之前的localhost

复制master上的hadoop到slave节点

scp -r /home/hadoop/hadoop-2.9.2 hadoop@slave0:~/

scp -r /home/hadoop/hadoop-2.9.2 hadoop@slave1:~/

su root

mkdir /usr/java

scp -r /usr/java/jdk1.8.0_161 hadoop@slave0:/usr/java/

scp -r /usr/java/jdk1.8.0_161 hadoop@slave1:/usr/java/

配置系统环境变量

su hadoop

vi ~/.bash_profile

这里是该用户下的配置环境变量,不是系统全局变量,换个用户就不起作用了

将hadoop配置信息加入

#hadoop
export HADOOP_HOME=/home/hadoop/hadoop-2.9.2 
export PATH=$HADOOP_HOME/bin:$PATH

在这里插入图片描述

刷新配置项

source ~/.bash_profile

创建hadoop数据目录

mkdir /home/hadoop/hadoopdata

注意和之前core-site.xml配置的路径一致

格式化文件系统

hdfs namenode -format

在这里插入图片描述

如果没有出现Error或者Exception说明格式化正确

启动和关闭hadoop

进入hadoop安装目录然后执行

cd ~/hadoop-2.9.2

sbin/start-all.sh

~/hadoop-2.9.2/sbin/start-all.sh

在这里插入图片描述

验证是否启动成功

jps
在这里插入图片描述
如图出现

SecondaryNameNode、 NameNode、 ResourceManager、 Jps说明启动成功

访问地址http://master:18088/

查看hadoop运行状态
在这里插入图片描述

http://192.168.2.201:50070/dfshealth.html#tab-overview

这里展示hdfs

在这里插入图片描述

mapreduce例子在该目录

/home/hadoop/hadoop-2.9.2/share/hadoop/mapreduce

在这里插入图片描述

运行MapReduce程序

hadoop jar /home/hadoop/hadoop-2.9.2/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar pi 10 10

pi是类型,第一个10表示map次数,第二个10表示随机生成点的次数(与计算机原理有关)
在这里插入图片描述

hadoop常用命令

hdfs基本命令

命令均有bin/hadoop脚本引发,不指定参数运行hadoop脚本将显示所有命令的描述,可通过hadoop fs -help查看所有命令的帮助文件。

[hadoop@master ~]$ hadoop fs -help
Usage: hadoop fs [generic options]
	[-appendToFile <localsrc> ... <dst>]
	[-cat [-ignoreCrc] <src> ...]
	[-checksum <src> ...]
	[-chgrp [-R] GROUP PATH...]
	[-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
	[-chown [-R] [OWNER][:[GROUP]] PATH...]
	[-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
	[-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
	[-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]
	[-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
	[-createSnapshot <snapshotDir> [<snapshotName>]]
	[-deleteSnapshot <snapshotDir> <snapshotName>]
	[-df [-h] [<path> ...]]
	[-du [-s] [-h] [-x] <path> ...]
	[-expunge]
	[-find <path> ... <expression> ...]
	[-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
	[-getfacl [-R] <path>]
	[-getfattr [-R] {-n name | -d} [-e en] <path>]
	[-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
	[-help [cmd ...]]
	[-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]
	[-mkdir [-p] <path> ...]
	[-moveFromLocal <localsrc> ... <dst>]
	[-moveToLocal <src> <localdst>]
	[-mv <src> ... <dst>]
	[-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
	[-renameSnapshot <snapshotDir> <oldName> <newName>]
	[-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
	[-rmdir [--ignore-fail-on-non-empty] <dir> ...]
	[-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
	[-setfattr {-n name [-v value] | -x name} <path>]
	[-setrep [-R] [-w] <rep> <path> ...]
	[-stat [format] <path> ...]
	[-tail [-f] <file>]
	[-test -[defsz] <path>]
	[-text [-ignoreCrc] <src> ...]
	[-touchz <path> ...]
	[-truncate [-w] <length> <path> ...]
	[-usage [cmd ...]]

-appendToFile <localsrc> ... <dst> :
  Appends the contents of all the given local files to the given dst file. The dst
  file will be created if it does not exist. If <localSrc> is -, then the input is
  read from stdin.

-cat [-ignore
  • 查看hdfs文件列表

hadoop fs -ls /

在这里插入图片描述

  • 创建目录

hadoop fs -mkdir /test

hadoop fs -mkdir /test/input

在这里插入图片描述

  • 本地上传文件到hdfs

两种hadoop fs -put和hadoop fs -copyFromLocal

hadoop fs -put /home/hadoop/test.bat /test/input/test.bat

hadoop fs -copyFromLocal -f /home/hadoop/test.txt /test/input/test.txt

在这里插入图片描述

  • hdfs文件下载到本地

hdoop fs -get或者hadoop fs -copyToLocal

hadoop fs -get /test/input/test.bat /home/hadoop/test1.bat

hadoop fs -copyToLocal -f /test/input/test.txt /home/hadoop/test1.txt
在这里插入图片描述- 查看hdfs文件内容

hadoop fs -cat /test/input/test.txt

在这里插入图片描述

可以将cat换成text或者tail

  • 删除hdfs文件

hadoop fs -rm /test/input/test.txt

在这里插入图片描述

Hadoop是一个开源的分布式计算框架,适用于处理大规模数据集的计算问题。Hadoop 2.9.2Hadoop的一个版本,针对于Windows操作系统进行了优化。 Hadoop 2.9.2 Windows版本在功能上与其他操作系统版本保持一致,支持分布式计算和存储,并具有容错性。Windows版本还提供了对Windows文件系统的支持,可以直接在Windows操作系统上运行Hadoop集群。 安装Hadoop 2.9.2 Windows版本时,你需要下载相应的安装包,并按照官方文档提供的步骤进行安装和配置。在配置过程中,你需要指定Hadoop的核心参数、文件系统参数等。安装和配置完成后,你可以通过命令行或Web界面进行Hadoop集群的管理和监控。 Hadoop 2.9.2 Windows版本支持Hadoop的核心组件,例如HDFS(分布式文件系统)和YARN(资源管理器)。通过HDFS,你可以将大规模的数据集分布式地存储在多台机器上,通过YARN,你可以有效地管理和调度计算资源。 在使用Hadoop 2.9.2 Windows版本时,你可以编写MapReduce程序来进行数据处理和计算。通过MapReduce,你可以将计算任务分解为Map和Reduce两个阶段,并在集群上并行执行,以加快处理速度。此外,你还可以使用Hadoop生态系统中丰富的工具和库,如Hive、Pig、Spark等,来进行更高级的数据分析和处理。 总的来说,Hadoop 2.9.2 Windows版本为Windows用户提供了一个功能完善的大数据处理平台,可以支持在Windows操作系统上进行分布式计算和存储。通过Hadoop的强大功能和生态系统,你可以更高效地处理和分析大规模数据集。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值