1)路径尽可能用绝对路径。
2)参数-C指定目标位置
3)tar命令解压tar包
4)源位置和目的位置根据实际情况变化
(2)解压后文件夹名较长,可用mv更名
如:mv jdk-8u11-linux-x64 jdk1.8
(3)配置到环境变量
全局环境变量配置文件位置:/etc/profile
用户环境变量配置文件位置:/home/.bashrc
1)指定JAVA家目录
export JAVA_HOME=/app/jdk1.8
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin
注意区分大小写。
(4)让配置文件生效并验证。
生效:source /etc/profile
验证:java -version,出现java版本,正确
验证:javac,
(5)将master中的配置文件/etc/profile和java解压文件传输到slave1,slave2中
命令:
scp -r /etc/profile slave1:/etc
scp -r /app/jdk1.8 slave1:/app
scp -r /etc/profile slave2:/etc
scp -r /app/jdk1.8 slav2:/app
注意:
1)目的地的文件夹若不存在,需创建
2)传输后必须用source命令让配置生效,并验证
3)-r指的是级联传输,对传输文件夹时不可缺省。
(三)hadoop配置
master中
(1)解压hadoop
tar -zxvf /opt/hadoop3.0.1.tar.gz -C /app/
(2)配置hadoop环境变量/etc/profile,并source应用配置
(3)验证hadoop,hadoop version
(4)配置hadoop相关配置。
hadoop-env.sh:
1)java环境家目录:export JAVA_HOME=/app/jdk1.8
2)用户权限
export HDFS_NAMENODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export HDFS_DATANODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
3)一个works文件,主要是DATANODE节点存放在哪些地方?
如:master,slave1,slave2等
4)4个配置文件,core-site.xml,hdfs-site.xml.mapreduce-site.xml,yarn-site.xml
core-site.xml
主是以下两个:
fs.defaultFS
hadoop://master:9820
hadoop.tmp.dir
/app/hadoop3.1/tmpData
其它的配置可以缺省,用默认的。
(5)将hadoop文件分发到slave1,slave2
scp -r
四、初始化Hadoop
hdfs namenode -formate
五、启动hadoop并查看相关进程
start-all.sh启动所有
start-dfs.sh启动hdfs
start-yarn.sh启动yarn
在相应节点上运行jps查看。
注意:
若没有正常启动,可能原因
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
记、源码讲义、实战项目、讲解视频,并且后续会持续更新**
如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
[外链图片转存中…(img-iBxeKnMh-1712966504977)]
一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!