最新Hadoop安装和使用详解(1),带你一步一步深入Handler源码

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!


![在这里插入图片描述](https://img-blog.csdnimg.cn/5c67f9f2d6e944ba90221ec6ef6f0101.png#pic_center)


在装好Ubuntu系统后,在安装Hadoop之前还需要一些工作。


#### 创建Hadoop用户


首先是创建一个名为" 
 
 
 
 
 h 
 
 
 a 
 
 
 d 
 
 
 o 
 
 
 o 
 
 
 p 
 
 
 
 hadoop 
 
 
 hadoop"的用户,创建该用户命令如下:



$ sudo useradd -m hadoop -s /bin/bash


![在这里插入图片描述](https://img-blog.csdnimg.cn/a33ff98ca5ec40ebbe291af60cf99ef1.png#pic_center)


该命令创建了可以登陆的" 
 
 
 
 
 h 
 
 
 a 
 
 
 d 
 
 
 o 
 
 
 o 
 
 
 p 
 
 
 
 hadoop 
 
 
 hadoop"用户,然后可以为其设置密码。



$ sudo passwd ******(个人密码)


![在这里插入图片描述](https://img-blog.csdnimg.cn/2ae7921066ba4d6d8a9e244a7519404b.png#pic_center)


同时我们还可以为 
 
 
 
 
 h 
 
 
 a 
 
 
 d 
 
 
 o 
 
 
 o 
 
 
 p 
 
 
 
 hadoop 
 
 
 hadoop用户增加管理员权限,方便部署,在学习过程中可以解决一些比较复杂棘手的权限问题。



$ sudo adduser hadoop sudo


![在这里插入图片描述](https://img-blog.csdnimg.cn/15649573a57a46b29722e9c1617150dd.png#pic_center)


最后注销当前用户,返回登录界面,选择刚才创建的 
 
 
 
 
 h 
 
 
 a 
 
 
 d 
 
 
 o 
 
 
 o 
 
 
 p 
 
 
 
 hadoop 
 
 
 hadoop用户进行登录。


#### 更新apt


在这里,apt(Advanced Packaging Tool)是一个Ubuntu中的Shell前端软件包管理器。apt命令提供了查找、安装、省级、删除某一个/一组甚至全部软件包的命令,且命令非常简洁易记忆。


在使用 
 
 
 
 
 h 
 
 
 a 
 
 
 d 
 
 
 o 
 
 
 o 
 
 
 p 
 
 
 
 hadoop 
 
 
 hadoop用户登录后,要先更新一下apt,因为后续需要用到apt安装软件。我们可以使用下面这条代码:



$ sudo aptget update


如果出现问题,可以参考一下林子雨老师的视频进行配置。


后续我们还需要更改一些配置文件,一般有两种方法:1.使用vim。2.使用gedit。gedit用起来感觉更偏向于windows的txt,对于刚接触Linux系统的同学比较友好。一般来说,linux系统都是默认带有gedit的。gedit的一个坏处是:**如果文件更改完不及时关闭gedit程序,会导致终端被占用而无法使用终端**。如果需要使用到vim,可以输入下面的代码:



$ sudo apt-get install vim


![在这里插入图片描述](https://img-blog.csdnimg.cn/39c85c022ec141f0b67138371b5b92f7.png#pic_center)


vim的使用可以参考这篇教程:[(4条消息) Linux Vim编辑器的基本使用\_\_HsForPyp的博客-CSDN博客]( )


#### 安装SSH、配置SSH无密码登陆


集群、单节点模式都需要用到SSH登陆(类似于远程登陆),Ubuntu默认已经安装了SSH client,此外还需要安装SSH server:



$ sudo apt-get install openssh-server


安装后,可以使用如下命令登陆本机:



$ ssh localhost


如果你是首次登陆,会出现以下提示,只需要输入yes然后根据题示输入密码,即可登录到本机。


![在这里插入图片描述](https://img-blog.csdnimg.cn/e3c8addc3590468da4f60b8f4b914903.png#pic_center)


但是这样每次登陆都是需要输入密码,相对来说比较繁琐,将SSH配置成无密码登陆会比较方便。


然后我们可以退出刚才的SSH:



$ exit


在回到原先的终端窗口后,我们就可以利用SSH-keygen生成密钥,并且将密钥加入到授权中:



$ cd ~/.ssh/
$ ssh-keygen -t rsa #会有提示,一直摁回车就好
$ cat .id_rsa.pub >> ./authorized_keys #加入授权


![在这里插入图片描述](https://img-blog.csdnimg.cn/c1b35eac9c9a48708d68f0b47a7182b4.png#pic_center)


此时再使用ssh localhost命令,无需输入密码就可以直接登陆了:


![在这里插入图片描述](https://img-blog.csdnimg.cn/cca34ebe14c6432288128c2f3dc0d944.png#pic_center)


#### 安装Java环境


因为我们需要安装的是Hadoop3.1.3,其需要的JDK版本在1.8以上。我们要先在JDK官网下载JDK1.8的安装包并保存到本地,然后手动安装。


![在这里插入图片描述](https://img-blog.csdnimg.cn/fffa2a96a4304d6683dbb640d6211a59.png#pic_center)


在Linux命令行界面中,我们执行如下命令就可以实现安装包的解压缩:



$ cd /usr/lib
$ sudo mkdir jvm #该位置用于存放JDK文件
$ cd ~ #进入到hadoop用户的主目录
$ sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm #解压JDK文件到jvm目录下


JDK文件解压缩后,我们可以执行如下命令去jvm目录查看一下:



$ cd /usr/lib/jvm
$ ls


![在这里插入图片描述](https://img-blog.csdnimg.cn/bff6f955a3c94d50a7a0e67af2ec0d6b.png#pic_center)


看到上图中的结果之后就说明JDK文件已经解压成功。下面继续执行如下命令,设置环境变量:



$ cd ~
$ vim ~/.bashrc


![在这里插入图片描述](https://img-blog.csdnimg.cn/776efdb30ce14485b361023f08dde1a0.png#pic_center)


在该文件中,输入上图中四条export语句。要注意JAVA\_HOME变量的位置一定要是JAVA安装路径的具体地址,否则后面会卡步骤。


保存.bashrc文件后并退出vim编辑器。然后继续执行如下命令使修改的文件立刻生效:



$ source ~/.bashrc #使文件立刻生效
$ java -version #查看是否安装成功


![在这里插入图片描述](https://img-blog.csdnimg.cn/b6d3835424224764b827c0d2c3adcc62.png#pic_center)


如果屏幕上返回上图中的信息,则说明JAVA环境安装成功。


#### Hadoop安装


这个和安装JDK一样,先去Hadoop官网下载相关压缩包即可。



$ sudo tar -zxf ~/hadoop-3.1.3.tar.gz -C /usr/local #解压代码
$ cd /usr/local/
$ sudo mv ./hadoop-3.1.3/ ./hadoop #将文件夹名改为hadoop
$ sudo chown -R hadoop ./haoop #修改文件权限


![在这里插入图片描述](https://img-blog.csdnimg.cn/46f043801b05432e9ff5158ea8b87de5.png#pic_center)


Hadoop解压之后即可使用,可以通过下面的代码检查其是否可用:



$ cd /usr/local/hadoop
$ ./bin/hadoop version


![在这里插入图片描述](https://img-blog.csdnimg.cn/21ccd70bf3724433aeb008abe4cd8599.png#pic_center)


#### Hadoop伪分布式配置


如果Hadoop在单节点上以伪分布式的方式运行,Hadoop进程以分离的JAVA进程来运行,节点既可以作为NameNode也可以作为DataNode,同时,该模式下读取的是HDFS中的文件。


伪分布式需要修改两个配置文件 
 
 
 
 
 c 
 
 
 o 
 
 
 r 
 
 
 e 
 
 
 − 
 
 
 s 
 
 
 i 
 
 
 t 
 
 
 e 
 
 
 . 
 
 
 x 
 
 
 m 
 
 
 l 
 
 
 
 core-site.xml 
 
 
 core−site.xml和 
 
 
 
 
 h 
 
 
 d 
 
 
 f 
 


![img](https://img-blog.csdnimg.cn/img_convert/69c43f1ad3b621e91f3e08d27961aaba.png)
![img](https://img-blog.csdnimg.cn/img_convert/8d7a31d8cdda5cf6e444cba7a789e017.png)

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

 
 
 . 
 
 
 x 
 
 
 m 
 
 
 l 
 
 
 
 core-site.xml 
 
 
 core−site.xml和 
 
 
 
 
 h 
 
 
 d 
 
 
 f 
 


[外链图片转存中...(img-zH6IPmS5-1715810899172)]
[外链图片转存中...(img-mucNAAY5-1715810899172)]

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值