大数据之hadoop的伪分布式安装与高可用安装

本文详细介绍了如何在Linux环境下安装配置Hadoop的伪分布式和高可用模式。内容包括安装JDK,配置Hadoop环境,设置免密钥登录,格式化HDFS,启动与停止集群,以及MapReduce的准备工作等。
摘要由CSDN通过智能技术生成

Xftp4. 用来更好的将win系统上的应用软件传输到虚拟机上 虚拟机上的东西也可传到win系统上
在这里插入图片描述
在X-shell上安装jdk
rpm -i jdk-7u67-linux-x64.rpm在这里插入图片描述
Jps无法发现 要在虚拟机上对java环境进行配置
在这里插入图片描述
重新查找jps 无法查找到,重新进行配置环境 当jps出现数字和jps时表示配置成功
在这里插入图片描述
先“ll-a”查看在家目录下 有无.ssh文件,若无 则进行以下操作,即登陆
在这里插入图片描述
再“ll-a”查看有无.ssh文件 ssh文件是保存密钥的文件
在这里插入图片描述
有了.ssh文件后,进行以下操作 输入两段命令 可免除密钥的输入
在这里插入图片描述
再次登陆 当不再需要密钥输入便可直接登陆 即已成功 如下图所示 最后退出 返回到主的node01文件下
在这里插入图片描述
将win系统上的hadoop解压包传输到linux上
在这里插入图片描述
解压hadoop,并且直接将hadoop直接解压在opt目录下(当然也可以解压到含有自己名字首字母的文件夹下)
在这里插入图片描述
输入pwd命令查找hadoop安装目录
在这里插入图片描述
要想在任意目录下启动hadoop 就要在配置文件里做些修改
在这里插入图片描述
做修改之后进行保存 重新加载 当输入hd按tab键可以弄出hdfs或当输入start-d按tab键自动弹出出strat-dfs. 说明配置成功

配置hadoop:在hadoop-env.sh/mapred-env.sh/yarn-env.sh三个文件下将JAVA_HOME的绝对路劲都改为/usr/java/jkd1.7.0_67

修改hadoop配置文件信息 找到core-site.xml文件(vi core-site.xml),在该文件内添加相应内容,如下图所示
在这里插入图片描述
配置hdfs-site.xml(vi hdfs-site.xml)
在这里插入图片描述
配置slaves 打开slaves文件将’localhost’改为‘node01’

格式化hdfs : 输入命令:hdfs namenode-format(只能格式化一次) 跳出如下图所示则展现格式化成功
在这里插入图片描述
启动集群命令”start-dfs.sh”,并用jps进行验证哪些被启动了起来
在这里插入图片描述
打开浏览器,输入node01:50070 如下图所示则显示识别node01成功
在这里插入图片描述
Hadoop伪分布式下运行wordcount
在hdfs里建立输入目录和输出目录
在这里插入图片描述
将要统计数据的文件上传到输入目录并查看
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
随后进入mapreduce目录
在这里插入图片描述
运行wordcount
在这里插入图片描述
查看运行结果
在这里插入图片描述

查询hadoop的log
在这里插入图片描述
最后停止集群 stop-dfs.sh
在这里插入图片描述
以上是hadoop的伪分布式安装,接下来介绍hadoop的高可用安装:

将node01上的jdk分别发送至node02、node03、node04上
在这里插入图片描述
统一#cd #ll 查看jdk是否发送到各虚拟机
给node02、05、06分别安装jdk
在这里插入图片描述

在这里插入图片描述
在node01上cd /etc 将profile发送到node02、03、04上
在这里插入图片描述
利用Xshell全部会话栏 source /etc/profile 再jps 查看02、03、04jdk是否安装好
在这里插入图片描述
在这里插入图片描述
下载ntp
yum -y install ntp在这里插入图片描述
校准时间并与aliyun时间相同 并检查四台linux时间是否相同
在这里插入图片描述
查看hostname是否正确
在这里插入图片描述
查看ip地址映射是否正确(一般来说,机器号对应的ip地址最后一位同号)
在这里插入图片描述
查看selinux是否正确
在这里插入图片描述
查看防火墙是否关闭
在这里插入图片描述
免密钥设置:在家目录ll –a看下有无.ssh文件 若无,则进行ssh localhost 最后记得exit退出

在这里插入图片描述
cd到.ssh文件下,并将node01的公钥发给其他三台机子
在这里插入图片描述
在node02的.ssh目录下查看是否有node01.pub 若有 输入命令: cat node03.pub >> authorized_keys 并在node01上 ssh node02查看是否免密钥了 相同的操作在node03 04上
在这里插入图片描述
修改namenode的一些配置信息:
输入目录 cd/opt/hadoop-2.6.5/etc/hadoop
再输入命令:vi hdfs-site.xml
修改:

dfs.replication
3

dfs.nameservices mycluster dfs.ha.namenodes.mycluster nn1,nn2 dfs.namenode.rpc-address.mycluster.nn1 node01:8020 dfs.namenode.rpc-address.mycluster.nn2 node02:8020 dfs.namenode.http-address.mycluster.nn1 node01:50070 dfs.namenode.http-address.mycluster.nn2 node02:50070 dfs.namenode.shared.edits.dir qjournal://node01:8485;node02:8485;node03:8485/mycluster dfs.journalnode.edits.dir /var/ldy/hadoop/ha/jn dfs.client.failover.proxy.provider.mycluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods sshfence dfs.ha.fencing.ssh.private-key-files /root/.ssh/id_dsa dfs.ha.automatic-failover.enabled true

以此路径,输入命令:vi core-site.xml
修改:

fs.defaultFS hdfs://mycluster ha.zookeeper.quorum node02:2181,node03:2181,node04:2181

再输入命令:vi slaves
将node01改为node02
node03
node04
安装hadoop: cd /opt,将其下的hadoop分发到node02、node03、node04
在这里插入图片描述
解压安装zookeeper
在这里插入图片描述
修改zookeeper的配置文件 并给zoo_sample.cfg改名
在这里插入图片描述
输入命令:vi zoo.cfg
修改dataDir=/var/ldy/zk
并在末尾追加
server.1=node02:2888:3888
server.2=node03:2888:3888
server.3=node04:2888:3888
保存
安装zookeeper 将zookeeper分发到其他节点
在这里插入图片描述
并用ll /opt检查分发是否成功
在这里插入图片描述
给每台机子创建刚配置文件里的路径:mkdir –p /var/opt/zk
echo 1 > /var/ldy/zk/myid
cat /var/ldy/zk/myid
在这里插入图片描述
node03 对应echo2;node04对应echo3 重复上述操作
安装zookeeper
export ZOOKEEPER_HOME= /opt/ldy/zookeeper-3.4.6
exportPATH= P A T H : / u s r / j a v a / j d k 1.7. 0 6 7 / b i n : PATH:/usr/java/jdk1.7.0_67/bin: PATH:/usr/java/jdk1.7.067/bin:HADOOP_HOME/bin: H A D O O P H O M E / s b i n : HADOOP_HOME/sbin: HADOOPHOME/sbin:ZOOKEEPER_HOME/bin
然后将/etc/profile分发到node03、node04
在这里插入图片描述
最后source /etc/profile;输入zkCli.s按Tab键可以把名字补全:zkCli.sh表示成功
在这里插入图片描述
启动zookeeper
全部会话:zkServer.sh start
接着用zkServer.sh status查看每个zookeeper节点状态
在mode里两台follower一台leader表示配置启动成功
在这里插入图片描述


在这里插入图片描述
启动journalnode:
在node02,node03,node04上分别把journalnode起起来:hadoop-daemon.sh start journalnode

格式化任一namenode,格式化成功后,启动namenode:hadoop-daemon.sh start namenode
在这里插入图片描述
给另一台manenode同步数据:hdfs namenode-bootstrapStandby
在这里插入图片描述
完成以上操作后,我们将进行格式化zkfc,输入命令:hdfs zkfc -formatZK

在node03上执行zkCli.sh打开zookeeper客户端看hadoop-ha是否打开:
在这里插入图片描述

启动hdfs集群:start -dfs.sh 然后在Xshell对话框下进行全部会话jps进程
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
用浏览器访问node01:50070和node02:50070
在这里插入图片描述
在这里插入图片描述
关闭集群:stop-dfs.sh
关闭zookeeper:zkServer.sh stop

为MapReduce做准备
把mapred-site.xml.template留个备份,并且改下名字:cp mapred-site.xml.template mapred-site.xml
在mapred-site.xml里添加如下property
mapreduce.framework.name
yarn

在yarn-site.xml里添加如下property

yarn.nodemanageraux-services mapreduce shuffle yarn.resourcemanager.ha.enabled true yarn.resourcemanager.cluster-id cluster1

yarn.resourcemanager.ha.rm-ids
rm1,rm2


yarn.resourcemanager.hostname.rm1
node03


yarn.resourcemanager.hostname.rm2
node04


yarn.resourcemanager.zk-addresse
node02:2181,node03:2181,node03:2181

把mapred-site.xml和yarn-site.xml分发到node02、03、04

在这里插入图片描述
在这里插入图片描述
分别在node03上免密钥登陆node04,在node04上免密钥登陆node03
ssh-keygen -t dsa -P ‘’ -f ./id_dsa
cat id_dsa.pub >> authorized_keys
之后用ssh localhost验证看是否需要密码
scp id_dsa.pub node04:pwd/node03.pub
cat node03.pub >> authorized_keys
在node03上ssh node04,看是否免密钥
以上是node03上免密钥登陆node04,在node04上免密钥登陆node03参照类似以上操作

启动zookeeper,全部会话zkServer.sh start
在node01上启动hdfs, start-dfs.sh
在node01上启动yarn,start-yarn.sh
在node03、04上分别启动resourcemanager,yarn-daemon.sh start resourcemanager
全部会话jps,看进程全不全
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在浏览器访问node03:8088,查看resourcemanager管理的内容

在这里插入图片描述
最后,关闭集群
node01:stop-dfs.sh
node01:stop-yarn.sh(停止nodemanager)
node03,node04:yarn-daemon.sh stop resourcemanager
node 02、03、04:zkServer.sh stop

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值