基于Ubuntu系统下的Hadoop平台搭建详细步骤

参考文档链接:

http://dblab.xmu.edu.cn/blog/2441-2/

http://dblab.xmu.edu.cn/blog/2460-2/

1.更换阿里源(因为访问archive.ubuntu太慢,所以换成国内源,访问更快)

  • 输入命令行
sudo nano /etc/apt/sources.list

在这里插入图片描述

  • 开始替换
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
  • 替换完毕

在这里插入图片描述

  • 进行更新
sudo apt update && sudo apt upgrade

在这里插入图片描述

2.链接xshell

1.安装SSH服务端

$ sudo apt-get install openssh-server

2.链接xhsell

在这里插入图片描述

3.安装JAVA环境

  • 安装jdk
sudo apt install openjdk-8-jdk -y

在这里插入图片描述

  • 配置环境变量
    在这里插入图片描述
    在这里插入图片描述
  • 添加完之后,更新环境变量
1.# 更新环境变量

2.source ~/.bashrc
  • 配置成功
    在这里插入图片描述

4.创建Hadoop用户

4.1创建新用户并设置密码

  • 用户名为hadoop,使用/bin/bash作为shell
$ sudo useradd -m hadoop -s /bin/bash

在这里插入图片描述

4.2为hadoop用户添加管理员权限

sudo adduser hadoop sudo

在这里插入图片描述

5.设置SSH免密登录

  • Hadoop并没有提供SSH密码登录的形式,所以需要将所有机器配置为无密码登录

5.1登录localhost

在这里插入图片描述

5.2设置为无密码登录

在这里插入图片描述

  • 此时就可以使用ssh localhost无密码登录

6.Hadoop安装

6.1解压到我们的Ubuntu系统中

  • 先安装lrzsz(可能有的人装完系统后,这条命令无法使用,可以执行的话请自动略过)
    在这里插入图片描述
  • 把下载好的Hadoop压缩包windows系统中传到我们的虚拟机系统
    在这里插入图片描述

6.2切换到Hadoop用户

ssh hadoop@localhost

在这里插入图片描述

6.3解压Hadoop

  • 因为我们刚刚是把压缩包传到了ba这个用户上,现在我们把它movehadoop这个用户上
    在这里插入图片描述
  • 再解压在这里插入图片描述
  • 此时就转移并解压完成了
    在这里插入图片描述
  • 查看一下版本
    在这里插入图片描述
  • 配置环境变量方便打开
    在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

6.4伪分布式模式配置

  • 在单个节点(一台机器上)以伪分布式的方式运行

6.4.1修改配置文件

需要修改/usr/local/hadoop/etc/hadoop/文件夹下的core-site.xmlhdfs-site.xml文件
在这里插入图片描述

  • core-site.xml
<configuration>
</configuration>

改为

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

在这里插入图片描述
在这里插入图片描述

  • hdfs-site.xml
<configuration>
</configuration>

修改为

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

在这里插入图片描述
在这里插入图片描述

6.4.2执行名称节点格式化

$ cd /usr/hadoop

$ ./bin/hdfs namenode -format

6.5启动hadoop

$ cd /usr/hadoop
$ ./sbin/start-dfs.sh

在这里插入图片描述

  • jps命令查看是否启动成功
    在这里插入图片描述

6.6使用浏览器查看HDFS信息

ifconfig 命令即可查看自己的IP地址

在这里插入图片描述

6.7运行伪分布式实例

  • 执行以下命令
cd /usr/hadoop

# 在HDFS中创建用户目录
./bin/hdfs dfs -mkdir -p /user/hadoop 

#在HDFS中创建hadoop用户对应的input目录
./bin/hdfs dfs -mkdir input  

#把本地文件复制到HDFS中
./bin/hdfs dfs -put ./etc/hadoop/*.xml input  

#查看文件列表
./bin/hdfs dfs -ls input 

./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.]+'

#查看运行结果
./bin/hdfs dfs -cat output/* 

在这里插入图片描述

  • 如果要再次运行,需要删除output文件夹

6.8关闭Hadoop

./sbin/stop-dfs.sh

在这里插入图片描述

6.9相关命令

$ cd /usr/hadoop

#格式化名称节点 (这个命令只需只需一次)
$ ./bin/hdfs namenode -format 

#启动Hadoop
$ ./sbin/start-dfs.sh  

#查看Hadoop是否成功启动
$ jps 

 # 关闭Hadoop
$ ./sbin/stop-dfs.sh  

 # 删除 tmp 文件,注意这会删除 HDFS中原有的所有数据
$ rm -r ./tmp    

# 重启
$ ./sbin/start-dfs.sh  
评论 23
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值