既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
本机主机映射
配置免密登录
为什么要配置免密登录?
未配置免密登录前
未配置免密登录前,在hadoop1登录hadoop2需要输入密码,这对以后的工作会产生很多麻烦。
在 hadoop 用户下,输入命令 ssh-keygen ,连按 3 次回车,之后你会发现,在/home/hadoop/.ssh 目录下生成了一对密钥。每台虚拟就都需要,使用发送所有对话框,输入一次就好,比较方便。
生成密钥
再分别输入ssh-copy-id hadoop1、ssh-copy-id hadoop2、ssh-copy-id hadoop3。每次需要输入yes及密码。这样就会在每台虚拟机的.ssh/authorized_keys中存在三台虚拟机的密钥。
复制密钥
复制密钥成功
可以在任一台虚拟机,使用ssh 主机名的方式登录其他虚拟机,使用exit退出。
集群配置前先同步时间
- date(查看时间)
- sudo ntpdate ntp1.aliyun.com(与阿里云的同步)
同步时间
集群配置
需要配置的文件,如图中的画红勾的那些。你可以照着Hadoop官网所给提示来敲,也可以从我的百度网盘下载,直接上传覆盖(上传前记得修改文件为自己的路径、用户名等)。
hadoop的配置文件
core-site.xml的配置
指定了工作目录等,读者根据自己的用户名等进行修改。
core-site.xml的配置
hadoop-env.sh的配置
指定了jdk路径,读者根据自己的进行修改。
hadoop-env.sh的配置
hdf-site.xml的配置
指令了一些数据目录等,读者根据自己的进行修改。
hdf-site.xml的配置
mapred-site.xml的配置
hadoop自带的是.template结尾的,如果你不是上传的我的文件,是自己在vi/vim编辑器下编辑的,记得改后缀。
标题
slaves的配置
填入主机名即可,读者根据自己的进行修改。
slaves的配置
yarn-site.xml的配置
添加了yarn结点的主机名等,读者根据自己的进行修改。
yarn-site.xml的配置
- cd ~/apps/hadoop-2.7.5/etc/hadoop/
- put D:\hadoopconfig\* (\*是上传所有文件,这样就会覆盖掉了)
使用hadoop namenode -format,初始化namenode。
初始化
start-dfs.sh(任意结点启动dfs均可)、使用stop-dfs.sh关闭。
启动dfs
start-yarn.sh(只能在YARN的主节点启动,否则ResourceManager进程无法启动,YARN主节点设置的为hadoop3 )、使用stop-yarn.sh关闭。
启动yar成功
验证集群
1、使用jps
dfs启动后
dfs启动后的hadoop1
dfs启动后的hadoop2
dfs启动后的hadoop3
yarn启动后
yarn启动后的h1
yarn启动后的h2
yarn启动后的h3
可以看到,每台虚拟机作为什么结点,如同规划的一样。
2、web验证
可以在本机的hosts里面也添加映射,如同上篇文章的hadoop001一样,这样在SecureCRT以及浏览器地址栏用主机名代替ip即可,比较方便。输入hadoop1:50070,即可打开如下界面,可以看到激活了。
namenode查看
输入hadoop3:8088即可查看到如下界面。
yarn结点查看
总结
今天主要学习了以下内容
安装hadoop并配置
克隆虚拟机,搭建集群
配置免密登录
配置集群
网盘链接:
链接:百度网盘 请输入提取码
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
F-1715411940112)]
[外链图片转存中…(img-15t0XC6J-1715411940112)]
[外链图片转存中…(img-TsSHf51y-1715411940112)]
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新