Hadoop安装过程

(1)Hadoop安装前配置

a,创建Hadoop用户在这里插入图片描述

sudo是ubuntu中一种权限管理机制,管理员可以授权给一些普通用户去执行一些需要root权限执行的操作。当使用sudo命令时,就需要输入您当前用户的密码.
在Linux的终端中输入密码,终端是不会显示任何你当前输入的密码,也不会提示你已经输入了多少字符密码。而在windows系统中,输入密码一般都会以“*”表示你输入的密码字符

设置密码,可简单设置为 hadoop。

为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题:

可注销当前用户(点击屏幕右上角的齿轮,选择注销),返回登陆界面。在登陆界面中选择刚创建的 hadoop 用户进行登陆。
b,更新apt

c,更改配置文件,安装vim,安装软件需要确认时,在提示处输入y。

d,安装ssh,配置ssh无密码登录,Ubuntu已默认安装了SSH cilent 此外还需要安装SSH server:

e,安装后,可以使用如下命令登录本机:此时会有SSH首次登录提示,输入yes。然后按提示输入密码hadoop,这样就登录到本机了。

f,每次登录都需要输入密码,将其配置成无密码登录(退出刚才的ssh,回到原先的终端窗口,利用ssh-keygen生成密钥,将密钥加入到授权中。)

在使用ssh localhost 命令,无需输入密码就可以直接登录了。

g,安装Java环境
先下载Java安装包,将压缩包移到/usr/lib/jvm中,在解压缩


可以看到在/usr/lib/jvm 目录下有个jdk-13.0.2目录。


vim ~/.bashrc打开了hadoop这个用户的环境变量配置文件,在这个文件的开头位置,添加如下几行内容:注意JAVA——HOME后面的,是你jdk的路径。

在这里插入图片描述
保存.bashrc文件并退出vim编辑器。然后,继续执行source ~/.bashrc命令让.bashrc文件的配置立即生效:

在这里插入图片描述
在这里插入图片描述使用如下命令查看是否安装成功:

在这里插入图片描述

(3)Hadoop安装过程(主要命令及执行截图):

可以在Windows下载Hadoop压缩包,然后直接拖到Ubuntu Downloads目录下,
官网下载Hadoop3.1.3
执行命令:将Hadoop安装到/usr/local/中
sudo tar -zxf /Downloads/hadoop-3.1.3.tar.gz -C /usr/local #解压缩cd /usr/local/
sudo mv ./hadoop-3.1.3/ ./hadoop #将文件夹名改为hadoop
sudo chown -R hadoop:hadoop ./hadoop #修改文件权限
在这里插入图片描述

Hadoop 解压后即可使用。输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息:
cd /usr/local/hadoop
./bin/hadoop version
三,Hadoop单机配置()非分布式
非分布式即单 Java 进程,方便进行调试。
在这里插入图片描述
执行成功后如下所示,输出了作业的相关信息,输出的结果是符合正则的单词 dfsadmin 出现了1次

在这里插入图片描述
在这里插入图片描述Hadoop 默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将 ./output 删除。

rm -r ./output

四Hadoop伪分布式配置
Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。

修改配置文件 core-site.xml (通过 gedit 编辑会比较方便: gedit ./etc/hadoop/core-site.xml),将当中的
在这里插入图片描述
改为下面的:
1.
2.
3.hadoop.tmp.dir
4.file:/usr/local/hadoop/tmp
5.Abase for other temporary direc tories.es.
6.
7.
8.fs.defaultsFS
9.hdfs://localhost:90000
10.
11.

同样的,修改配置文件 hdfs-site.xml:
1.
2.
3.dfs.replication
4.11
5.
6.
7.dfs.datanode.data.dir
8.file:/usr/lcal/hadoop/tmp/dfs/name
9.
10.
11.dfs.datanode.data.dir
12.file./usr/local/hadoop/tmp/dfs/data
13.
14.
配置完成后,执行 NameNode 的格式化:

在这里插入图片描述
返回信息大致如下:
在这里插入图片描述
接着开启 NameNode 和 DataNode守护进程。
cd /usr/local/hadoop
(照着自己输入吧)
在这里插入图片描述
jps 来判断是否成功启动

在这里插入图片描述

安装成功!

(4)Hadoop安装后测试

要使用 HDFS,首先需要在 HDFS 中创建用户目录:
在这里插入图片描述
若要再次执行,需要执行如下命令删除 output 文件夹:
/bin/hdfs dfs -rm -r output

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值