大数据004-hadoop002-数据

数据的存储和分析

单个硬盘存在读写的上限

如果有1TB的硬盘,传输速度100MB/s,需要2.5小时读完

多个硬盘同时读写

如果有100个硬盘,每个硬盘存储1%,读取完不到2分钟。
以上是一个数据,如果有很多个数据集,不但保证了效率,还避免了资源浪费。

多硬盘的问题

  • 数据丢失
    • 最常见的做法:复制,对数据做冗余副本。
      • HDFS
  • 分析结果的结合
    • 1个硬盘处理后要从其他99个硬盘中获取结果,结合使用。
    • Hadoop对此提出的模式为:MapReduce编程模型。
      • Map和reduce两部分组成。

Hadoop使用的处理模式

1. MapReduce编程模型

MapReduce编程模型基本是批处理系统,不适合实时。它的处理时间对比早期的数据处理分析,有了极大提升,但还是做不到秒级。通常需要几分钟或更多的时间,适合离线的使用场景。

2.第一个实时组件

HBase,使用HDFS作为底层存储的键值存储模型。

3.Hadoop2的YARN

Hadoop2中YARN(Yet Another Resource Negotiator),它是一个集群资源管理系统。

4.其他
  • 交互式SQL:
    • 利用MR(MapReduce)进行分发并使用一个分布式查询引擎,使在Hadoop中获取SQL查询低延迟响应的能力(比如hive)
  • 迭代处理:
    • 例如机器学习中,自身具有迭代下,结果集保存在内存中比保存在硬盘中更高效。
  • 流处理:
    • 例如Storm、Spark、Streaming等使在数据流上运行实时、分布式计算,并向Hadoop存储系统或外部系统发布结果。

Hadoop对比其他系统

1.关系数据库

效率对比

先提一下,限制速度的两个重要因素:

  • 传输速度:受限于带宽。

  • 硬盘寻址:磁头移动到特定硬盘位置进行读/写操作。

  • 可以思考下,这两个因素哪个更容易提升?

结论
  1. 如果数据访问模式中含有大量的硬盘寻址,对比流数据(取决于传输速率)模式必然会花费更长的时间。
  2. 如果数据库只更新一小部分记录,关系数据库更有优势。
  3. 如果数据库需要大量数据更新,MR更有优势(因为需要“排序/合并”来重建数据库)

MR适合一次写入、多次读取的数据应用场景,关系数据库更适合持续更新的场景。

数据集对比

另一个重要区别是数据集的结构化程度。

  • 结果化数据:
    • 有既定格式的实体化数据。
  • 半结构化数据:
    • 有格式,但经常被忽略,只能作为对数据结构的一般性知道。例如:电子表格,结构是单元格构成,但是单元格可以保存任何形式的数据。
  • 非结构化数据
    • 没有特定格式,比如纯文本、图像数据。

MR以及Hadoop对于数据规模是线性伸缩的。如果数据量增加至原来的2倍,作业时间也需要2倍。如果集群规模也扩展为2倍,则作业时间与原来的一样。但SQL查询不具备该特性。

2.网格计算

高性能计算采用的方法一般是将作业进行拆分,分散到集群的各台机器上,这些机器访问存储区域网络(SAN)所组成的共享文件系统。如果节点访问的数据量比较庞大时,就会有计算节点因为网络带宽的瓶颈问题在等待数据。
Hadoop将数据存储在计算节点上,以实现数据的本地访问。
数据本地化是Hadoop处理数据的核心。并且通过显式网络拓扑结构保留网络带宽。

3.志愿计算

SETI@home项目,志愿者贡献自己计算机的CPU用于搜索外星生命。它和MR的区别在于,SETI@home需要的是计算能力而不是传输能力。

MR有三大设计目标:

  1. 需要几分钟或几小时完成作业提供服务;
  2. 运行在同一个内容有高速网络链接的数据中心内;
  3. 数据中心内容的计算机都是可靠的、专门的硬件;
  • 22
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
### 回答1: Hadoop是一个开源的分布式计算框架,主要用于处理大规模数据集。它的核心是HDFS(Hadoop分布式文件系统)和MapReduce计算模型。 Spark是一个快速、通用的大数据处理引擎,可以在内存中进行数据处理,比Hadoop MapReduce更快。它支持多种数据源,包括HDFS、HBase、Cassandra等。 Storm是一个分布式实时计算系统,可以处理实时数据流。它的核心是Storm集群,可以在多个节点上运行,实现高可用性和可扩展性。 Flink是一个分布式流处理框架,可以处理实时数据流和批处理数据。它的核心是DataStream API,可以进行流式计算和窗口计算。 Samza是一个分布式流处理框架,可以处理实时数据流。它的核心是Kafka和YARN,可以实现高可用性和可扩展性。 ### 回答2: 大数据框架是指一组用于处理大规模数据的软件工具。随着大数据及其分析应用的不断增长,数十个大数据框架已经随着时间而推出,其中包括hadoop、spark、storm、flink、samza等。下面将对这几种大数据框架进行详细介绍。 1. Hadoop Hadoop是一个在大数据应用领域最流行的框架。它是以Java语言开发的,是一个分布式的计算平台。通过它,用户能够处理超过普通计算机可以承受的数据量。Hadoop集群由多个计算机组成,在不同的计算机上存储和计算数据Hadoop的主要组件包括HDFS(分布式文件系统),MapReduce计算模型(可以实现大规模数据的并行处理)。 2. Spark Spark是一个基于内存的计算框架,可以实现大数据的快速处理。与Hadoop相比,Spark运行速度更快,因为它可以在内存中执行计算任务。Spark可以通过Java、Scala和Python编写,还支持Spark SQL(基于SQL的查询),Spark Streaming(处理实时数据流)、MLlib(机器学习库)等功能模块。 3. Storm Storm也是一个实时数据处理框架。它能够实现一种“实时数据流”的处理模式,这在需要对流式数据进行实时处理和计算的场景中非常有用。Storm是一个分布式的框架,包括多个节点,支持高可靠性、水平扩展、非常灵活的拓扑连接等功能。 4. Flink Flink是一个高度可扩展、分布式的计算框架。它支持流式处理和批处理。通过内存进行数据计算,速度更快,同时也支持实时流式数据处理。Flink将传统的批量处理和流式处理集成到了一个框架中,将批量计算看成一种特殊形式的流式计算。 5. Samza Samza是一个其他不同大数据框架的组件,它是一个分布式流处理器,可以处理大量的流数据。它可以作为批处理系统的组件来使用,提供可靠的消息传递、基于字符串的状态存储、多维度流处理和都市需求等功能。Samza主要用于大规模流式数据的分析和处理,通常和其他的大数据处理框架一起使用。 总体来说,以上这几种大数据框架适用于不同的场景和需求。在实际应用时,需要根据具体情况进行选择和使用,以达到最佳的效果和效率。 ### 回答3: 大数据框架是当今大数据技术领域中越来越重要的一部分。在众多大数据框架中,Hadoop、Spark、Storm、Flink和Samza是其中最常用的框架。 Hadoop是由Apache基金会开发的开源框架,主要用于存储和处理大数据。它的核心组件包括HDFS和MapReduce。HDFS是一个分布式文件系统,通常用于存储大数据,而MapReduce是一种分布式数据处理模型,用于对大数据进行批处理。 Spark是另一个Apache开源项目,也是用于大数据处理的框架。与Hadoop不同的是,Spark使用内存计算,这意味着它可以比Hadoop更快地处理大量数据。Spark支持多种编程语言,包括Java、Scala和Python,也支持SQL查询和图形计算。 Storm是另一个Apache开源项目,主要用于流式数据处理。与Hadoop和Spark不同的是,Storm能够实时处理流数据,而不需要等待离线批处理。Storm支持容错和高可用性,并支持多种编程语言,包括Java、Scala和Clojure。 Flink是由Apache开发的开源流处理框架。与Storm类似,Flink也可以进行实时数据处理,并支持批处理模式。Flink的主要特点是低延迟和高吞吐量,同时支持复杂事件处理和机器学习。 最后,Samza也是另一个Apache开源框架,主要用于流式数据处理。与Storm和Flink不同的是,Samza的焦点是可扩展性和容错性。Samza的主要优点之一是它与Kafka集成良好,Kafka是一个分布式消息队列。 总之,Hadoop、Spark、Storm、Flink和Samza都是在大数据领域中广泛应用的重要框架。每个框架都有自己的特点和优劣,应根据具体的大数据需求和场景进行选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值