VMware中Linux系统下(Ubuntu)Hadoop的安装和使用步骤

本文详细介绍了在VMware中使用Ubuntu安装和配置Hadoop3.2.4,包括创建Hadoop用户、更新软件、安装Java和SSH,以及进行单机和伪分布式环境的设置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

VMware中Linux系统下(Ubuntu)Hadoop的安装和使用步骤
此篇文章中安装的是:jdk1.8.0_202、hadoop-3.2.4

安装过程中可能会用到的复制粘贴方法:

Windows下复制内容到虚拟机下的linux系统(Ubuntu)

创建Hadoop用户

1、创建Hadoop用户

sudo useradd -m hadoop -s /bin/bash
sudo passwd hadoop
sudo adduser hadoop sudo

在这里插入图片描述
2、切换到hadoop账户

su hadoop

在这里插入图片描述

更新apt和安装Vim编辑器

1、更新apt

sudo apt-get update

在这里插入图片描述
2、安装vim编辑器

sudo apt-get install vim

在这里插入图片描述

安装SSH和配置SSH无密码登录

1、安装SSH服务端

sudo apt-get install openssh-server

在这里插入图片描述
2、登录本机

ssh localhost

在这里插入图片描述
3、退出SSH登录,利用ssh-keygen生成密钥,并将密钥加入授权。

exit                           
cd ~/.ssh/                    
ssh-keygen -t rsa              # 会有提示,都按回车就可以
cat ./id_rsa.pub >> ./authorized_keys  

在这里插入图片描述
在这里插入图片描述

安装java环境

1、wget下载JDK镜像(可以选择其他方式,此方式直接下载后文件保存在当前目录)

wget --no-check-certificate https://repo.huaweicloud.com/java/jdk/8u202-b08/jdk-8u202-linux-x64.tar.gz

在这里插入图片描述
2、创建/user/lib/jvm目录来存放JDK文件

cd /usr/lib
sudo mkdir jvm
cd ~

在这里插入图片描述
3、解压缩文件

sudo tar -zxvf ./jdk-8u202-linux-x64.tar.gz -C /usr/lib/jvm

在这里插入图片描述
4、设置环境变量

vim ~/.bashrc

需要键盘敲击输入一个英文字母i,进入编辑状态以后才能修改内容。
修改后,需要按键盘上的Esc键退出vim的编辑状态。
从键盘输入“:wq”三个英文字母,然后回车,表示保存文件并退出。

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_202
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

在这里插入图片描述
5、保存.bashrc文件,让.bashrc文件生效
查看是否安装成功

source ~/.bashrc
java -version

在这里插入图片描述

安装单机Hadoop

1、wegt下载hadoop镜像

wget --no-check-certificate https://mirrors.cnnic.cn/apache/hadoop/common/hadoop-3.2.4/hadoop-3.2.4.tar.gz

在这里插入图片描述
2、解压缩
3、重命名目录名为hadoop
4、修改目录权限为读权限
5、查看hadoop版本信息

sudo tar -zxvf ./hadoop-3.2.4/hadoop-3.2.4.tar.gz -C /usr/local

cd /usr/local
sudo mv ./hadoop-3.2.4/ ./hadoop
sudo chown -R hadoop ./hadoop

cd /usr/local/hadoop
./bin/hadoop version

在这里插入图片描述
6、在hadoop安装目录下新建input目录,用来存放输入数据
7、将/user/local/hadoop/etc/hadoop目录下的配置文件复制到input目录下

mkdir input
cp ./etc/hadoop/ .xml ./input

在这里插入图片描述
8、运行Grep实例,统计.xml文件中以dfs开头的文件

./bin/hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.4.jar grep ./input ./output 'dfs[a-z.]+'

在这里插入图片描述
9、查看输出数据

cat ./output/*

在这里插入图片描述

Hadoop伪分布式安装

1、修改core-site.xml

vim ./etc/hadoop/core-site.xml

在这里插入图片描述

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

在这里插入图片描述
2、修改hdfs-site.xml文件

vim ./etc/hadoop/hdfs-site.xml

在这里插入图片描述

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

在这里插入图片描述
3、文件系统格式化

cd /usr/local/hadoop
./bin/hdfs namenode -format

在这里插入图片描述
4、启动HDFS

cd /usr/local/hadoop
./sbin/start-dfs.sh

在这里插入图片描述
5、如果如上图一样启动失败,通过添加hadoop环境变量解决

vim ~/.bashrc

在这里插入图片描述

export HADOOP_HOME=/usr/local/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

在这里插入图片描述

source ~/.bashrc
./sbin/start-dfs.sh
jps

在这里插入图片描述
6、在Ubuntu的浏览器中访问 http://localhost:9870
在这里插入图片描述

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值