大数据Hadoop基础入门到精通

1.hadoop前世今生:

  1) 搜索引擎:网络爬虫+索引服务器(生成索引+检索)

  2) Doung Cutting

  3)  Nutch

    a.分布式存储

    b.分布式计算

  4)GFS论文 doung cutting写了hdfs

2.hadoop概述

  hadoop common:提供网络通信

  hadoop hdfs

  hadoop mapreduce

  hadoop yarn

 

Hadoop 0.x 1.x

 

 

 

 

 Hadoop 2.x之后的版本

 Hadoop 概述

 

 

hdfs引入 

 

NameNode是主节点存储元数据,以及每个文件所在的块列表和块所在的DataNode

 

DataNode存储块数据和校验和

 

SecondaryNamenode 监控后台数据,获取快照

 

 

1)四大模块

 

2)hdfs(hadoop distributed file system):分布式文件系统

  a.文件系统:文件管理+block块管理

  单机文件系统

  window:FAT16、FAT32、NTFS

  linux:ext 2/3/4、 VFS

  b.分布式文件系统

  多个服务器文件系统

  c.三大组件

  NameNode

  •   元数据:文件名、目录名、属性
  •   文件列表与block列表之间的关系
  •   block与datanode列表映射关系

 

  Datanode

  block块数据、校验和编码

 

  SecondaryNameNode

  分担namenode压力,合并编辑日志edits和镜像文件fsimage,合并后将最终的文件返回namenode进行处理

  

 Hadoop概述

 

YARN引入案例

 

转载于:https://www.cnblogs.com/zhichun/p/11361255.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大数据Hadoop是一个开源的分布式计算框架,用于存储和处理大规模数据集。想要从入门精通大数据Hadoop,需要以下几个步骤。 首先,了解Hadoop的基本概念和架构。HadoopHadoop分布式文件系统(HDFS)和Hadoop分布式计算框架(MapReduce)组成。HDFS用于存储大规模数据集,而MapReduce用于分布式计算。了解这些基本概念对于理解Hadoop的运行方式至关重要。 其次,学习Hadoop的安装和配置。Hadoop的安装可以通过官方网站提供的二进制文件进行,同时需要配置相关环境变量和属性文件。熟悉Hadoop的配置能够更好地适应不同的需求和环境。 第三,学习Hadoop的编程模型和API。Hadoop使用Java编程语言来实现分布式计算任务。了解Hadoop编程模型和API可以帮助我们编写MapReduce程序,实现数据的分布式处理和并行计算。 第四,了解Hadoop生态系统中的其他组件。Hadoop生态系统包括HBase、Hive、Pig、Spark等多个组件,它们可以与Hadoop一起使用,提供更强大的数据处理和分析能力。了解这些组件的基本概念和用法,能够更好地解决实际的数据处理问题。 最后,通过实践项目来提升技能。只有通过实践,才能真正掌握Hadoop的使用和应用。可以通过解决实际的数据问题,运行和调优MapReduce程序,深入理解Hadoop的工作原理和性能优化。 总结起来,要想从入门精通大数据Hadoop,需要了解基本概念和架构,学习安装配置,掌握编程模型和API,了解Hadoop生态系统中的其他组件,并通过实践项目来提升技能。这些步骤将帮助我们更好地理解和运用Hadoop,实现大数据的存储和处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值