Ubantu20虚拟机下hadoop安装教程--详细

Ubantu20下Hadoop伪分布安装

注意:防火墙一定要关闭!,也可以不关闭 ,需要放行你需要的端口!

1、准备安装包上传到/opt目录下

  • 配置jdk,将jdk上传到/opt目录下

上传失败执行

sudo chmod 777 /opt

image-20230420174922404

hadoop获取连接,在/opt目录下输入

sudo wget --no-check-certificate https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-2.10.1/hadoop-2.10.1.tar.gz

  • 将两者解压到/usr/local下
sudo tar -zxvf /opt/hadoop-2.10.1.tar.gz -C /usr/local/           
sudo tar -zxvf jdk-8u131-linux-x64.tar.gz -C /usr/local/
  • 编辑sudo vim /etc/profile,vim没有该命令自行百度(JDK和hadoop环境变量一起)
export JAVA_HOME=/usr/local/jdk1.8.0_131
export HADOOP_HOME=/usr/local/hadoop-2.10.1
exportPATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH:$HOME/bin

  • 保存退出执行 source /etc/profile

  • 检测是否成功,分别输入

java -version
hadoop

image-20230420175526039

2、hadoop配置

  • hadoop-env.sh文件的配置

​ 配置文件所在目录,在解压的hadoop目录下:hadoop/hadoop-2.10.1/etc/hadoop

sudo vim  hadoop-env.sh

image-20230420180319574

这个目录改Jdk的安装目录,不用到bin目录下,到安装目录即可

/usr/local/jdk1.8.0_131

image-20230420180513455

  • core-site.xml文件配置
sudo vim core-site.xml

image-20230420180908760

<configuration>
      <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
            </property>
            <property>
             <name>hadoop.tmp.dir</name>
          <value>/home/icloudy/hadoop/hadoop-2.10.1/tmp</value>
     </property>

</configuration>

可根据自己情况更改。

  • 配置hdfs-site.xml
sudo vim hdfs-site.xml

image-20230420181248917

<configuration>
                <property>
                        <name>dfs.replication</name>
                        <value>1</value>
                </property>
</configuration>
  • mapred-site.xml文件配置

目录下是没有该文件的只有一个模板,将mapred-site.xml.template复制一份改名即可。

cp mapred-site.xml.template mapred-site.xml
sudo vim mapred-site.xml
<configuration>
        <property>
                  <name>mapreduce.framework.name</name>
                 <value>yarn</value>
        </property>
</configuration>

image-20230420181627091

  • yarn-site.xml文件配置
sudo vim yarn-site.xml

image-20230420182032224

    <property>
             <name>yarn.nodemanager.aux-services</name>
             <value>192.168.66.123:9001</value>
    </property>

    <property>
             <name>yarn.resourcemanager.address</name>
             <value>192.168.66.123:8032</value>
    </property>
  • 配置ssh免密登录

进入 /etc下

sudo chmod 777 hosts

sudo vim /etc/hosts

image-20230420183642478

340a146f724241118d64ec6bbbad4ee1

fbb737acce764f9e8fc52343a86349e3

完成主机ip映射之后使用密码实现主机间的切换:ssh root@[主机映射名称]

cd ~/.ssh/

#完成主机ip映射之后使用密码实现主机间的切换:ssh root@[主机映射名称]
ssh root@icloudy


image-20230420184528176

输入yes后会让你输入密码:

image-20230420184733528

如上图已经成功切过去了。

此时是需要密码的,每次输入密码是很不方便的,也不能实现集群的自动化,接下来需要配置ssh免密登录。

在root用户下输入ssh-keygen -t rsa 三次回车

image-20230420185719156

image-20230420191647861

image-20230420191944714

@符前面是当前用户名,@后面是要登录的用户名

  • 格式化分布式文件系统HDFS

该文件系统是hadoop自动下载的的,格式化命令:hdfs namenode -format。只能格式化一次,若第一未成功需要删除上面配置的tmp目录重新格式化。

4212bc2dea92473da9b0ee709902ef56

ae074ce473b34813b6e39280cd76a546

  • **启动集群start-dfs.sh**中途要输入一个yes:

9eaf6c11df644dbba90ec2b389427f32

  • 使用jps检查

image-20230420192645986

这一步你比我少一个正常,你还没启动完。

namenode节点后台管理地址ip+端口号[50070/50090]

http://192.168.66.123:50070/

image-20230420192426181

  • http://192.168.66.123:50090

image-20230420192511024

  • yarn作为集群的管理者,启动yarn的命令为:start-yarn.sh

4d154097a9204f4581ec076a524c73dd

也可以输入ip+[yarn端口号]进入yarn管理中心,这是在之前yarn-site.xml配置的

image-20230420192830403

如图,就是成功了,伪分布安装!

  • http://192.168.66.123:8088

image-20230420192547813

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

明天码上有钱啦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值