大数据最新大数据:Windows环境下搭建安装Hadoop详解,2024年最新50w字+的大数据开发技术类校招面试题汇总

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

下载后把文件解压,如图:

本文基于Hadoop版本hadoop-2.8.3

2,当前电脑要安装有java的jdk,配置java环境和java_home。我没修改环境变量,我是通过Windows下bat文件写入代码实现,命令行启动的bat文件代码:

set JAVA_HOME=D:\Java

set HADOOP_HOME=E:\hadoop\hadoop-2.8.3

set path=C:\Windows\System32;%JAVA_HOME%\bin;%HADOOP_HOME%\bin;

start cls

3,此时启动第2步的bat文件,输入命令:hadoop version,然后输出如图:

表明Hadoop初步的搭建安装成功。但是此时仍然不能查看节点等,还需要完成下面步骤。

4,Hadoop在Windows下完整运行需要Windows组件支持,从

https://github.com/steveloughran/winutils

这里下载一个,下载完成后,解压得到若干版本的winutils,我选用2.8.3版本:

然后把上面的bin文件一股脑全部复制到第1步中解压后的hadoop-2.8.3\bin文件夹下面,覆盖原先的bin目录文件下所有文件。

5,创建三个文件夹,namenode,datanode,tmp。如图:

6,把以下4个配置文件全部复制替换掉hadoop\hadoop-2.8.3\etc\hadoop下的文件:

core-site.xml:

<?xml version="1.0" encoding="UTF-8"?>

fs.defaultFS

hdfs://localhost:9000

hadoop.tmp.dir

/E:/hadoop/my/tmp

hdfs-site.xml:

<?xml version="1.0" encoding="UTF-8"?>

dfs.replication

1

dfs.namenode.name.dir

/E:/hadoop/my/namenode

dfs.datanode.data.dir

/E:/hadoop/my/datanode

mapred-site.xml:

<?xml version="1.0"?>

mapreduce.framework.name

yarn

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!**

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 6
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个用于处理大规模数据的开源框架,它不仅是大数据技术的核心重点,也是面试中经常会问到的问题之一。Hadoop包含了Hadoop框架本身以及Hadoop生态系统中的其他辅助框架,如zookeeper、Flume、Hbase、Hive、Sqoop等。在一个正常工作的Hadoop集群中,需要启动多个进程来完成不同的任务。这些进程包括: 1. NameNode:负责管理HDFS(Hadoop分布式文件系统)的元数据,如文件的目录结构和文件块的位置信息。 2. DataNode:负责存储实际的数据块,并向NameNode报告块的状态。 3. ResourceManager:负责管理集群上的资源分配和任务调度,协调不同应用程序之间的资源竞争。 4. NodeManager:负责管理每个节点上的资源,接收来自ResourceManager的指令,启动和监控容器,执行具体的任务。 5. SecondaryNameNode:定期从NameNode中复制元数据,用于恢复NameNode的故障。 6. JobTracker:负责任务调度和资源管理,监控任务的执行并重新调度失败的任务。 7. TaskTracker:在每个节点上运行,负责执行特定的任务,如Map任务或Reduce任务。 这些进程协同工作,以实现Hadoop集群的分布式计算和数据存储。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [大数据开发面试题详解Hadoop的运行原理](https://blog.csdn.net/xx666zz/article/details/85708344)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [2021最全大数据面试题汇总---hadoop篇,附答案!](https://blog.csdn.net/weixin_45574790/article/details/119241157)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值