网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
### 2.2修改静态ip
三台虚拟机的ip不能相同,最后一位改下就行,别忘了出来重启下网卡
vim /etc/sysconfig/network-scripts/ifcfg-ens33
systemctl restart network
## 3.hadoop完全分布式配置
### 3.1解压、改名和配置、应用环境变量
解压hadoop:
tar -zxvf /usr/local/hadoop-2.7.7.tar.gz -C /usr/local/
改名hadoop:
mv /usr/local/hadoop-2.7.7 /usr/local/hadoop
vim /etc/profile
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:
H
A
D
O
O
P
H
O
M
E
/
b
i
n
:
HADOOP_HOME/bin:
HADOOPHOME/bin:HADOOP_HOME/sbin:$PATH
source /etc/profile
### 3.2配置hadoop-env.sh
vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
![](https://img-blog.csdnimg.cn/direct/0372622470ee415ea91f422b8cdfe788.png)
export JAVA_HOME=/export/server/jdk
### 3.3配置core-site.xml
vim /usr/local/hadoop/etc/hadoop/core-site.xml
![](https://img-blog.csdnimg.cn/direct/2b6d4f097cbd49c2a0f707624eb36cb1.png)
fs.defaultFS hdfs://node1:9000
hadoop.tmp.dir
/usr/local/hadoop/tmp
### 3.4配置hdfs-site.xml
vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml
![](https://img-blog.csdnimg.cn/direct/08898d63d420456097f2faa80e31fa64.png)
dfs.replication 3
dfs.namenode.secondary.http-address
node3:50090
### 3.5配置mapred-env.sh
vim /usr/local/hadoop/etc/hadoop/mapred-env.sh
![](https://img-blog.csdnimg.cn/direct/8cc396cade484593afd52eb0025d4d3a.png)
export JAVA_HOME=/export/server/jdk
### 3.6配置mapred-site.xml
配置前先复制一份(因为没有)
cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml
vim /usr/local/hadoop/etc/hadoop/mapred-site.xml
![](https://img-blog.csdnimg.cn/direct/e3ab3f7b352f442a8d28aa508387edb5.png)
mapreduce.framework.name yarn ```
3.7配置yarn-env.sh
vim /usr/local/hadoop/etc/hadoop/yarn-env.sh
export JAVA_HOME=/export/server/jdk
3.8配置yarn-site.xml
vim /usr/local/hadoop/etc/hadoop/yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>node2</value>
</property>
3.9配置slaves
vim /usr/local/hadoop/etc/hadoop/slaves
node1
node2
node3
3.10把主机上配好的内容分发到从机上
scp -r /usr/local/hadoop root@node2:/usr/local
scp -r /usr/local/hadoop root@node3:/usr/local
3.11格式化主机
只格式化主机node1,从机node2和node3不用格式化,格式化前可以打个快照保存一下,防止前面有地方配错了没查出来。
hadoop namenode -format
3.12设置免密钥并授权给三台虚拟机
三台都要把下面的代码输一遍
ssh-keygen -t rsa
ssh-copy-id -i ~/.ssh/id_rsa.pub node1
ssh-copy-id -i ~/.ssh/id_rsa.pub node2
ssh-copy-id -i ~/.ssh/id_rsa.pub node3
只展示其中一个
3.13开启主机和从机验证
只在主机(node1)和其中一个从机(例如node2)输入命令,从机之二只开启不输命令,先启动主机再启动从机。
主机:
start-dfs.sh
从机:
start-yarn.sh
关闭同样是先关从机再关主机
从机:
stop-yarn.sh
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
rn.sh
[外链图片转存中...(img-NAOgOV53-1715674493257)]
[外链图片转存中...(img-kqX8T2bX-1715674493257)]
[外链图片转存中...(img-3ebIPlhj-1715674493257)]
**既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**
**由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**