大数据技术1:大数据发展简史

前言:学习大数据技术,知道会用已经够了,但是要想走得更远,应该了解它发展的来龙去脉,为何会有新的技术/工具的出现,相比老的技术有什么样的进步。


1、传统数据处理系统存在的问题

随着信息时代互联网技术爆炸式的发展,人们对于网络的依赖程度日渐加深,在业务中需要处理的数据量快速增加,逐渐飙升到了一个惊人的数量级。并且数据产生的速度随着采集与处理技术的更新仍在加快。

数据量从兆字节(MB)、吉节 (GB)  的级别到现在的太字节 (TB)、   (PB)  级别,数据量的变化促使数据管理系统 (DBMS)  和数据仓库 (Data  Warehouse,DW) 系统也在悄然地变化着。传统应用的数据系统架构设计时,应用直接访问数据库系统。当用户访问量增加时,数据库无法支撑日益增长的用户请求的负载,从而导致数据库服务器无法及时响应用户于数据修改的请求时,就需要增加多个工作处理层并发执行,数据库又将再次成为响应请求的瓶颈。一个解决办法是对数据库进行分区 (Horizontal  Partitioning)。分区的方式通常以 Hash 作为 key 。这样就需要应用程序端知道如何去寻找每个key 所在的分区。

但即便如此,问题仍然会随着用户请求的增加接踵而来。当之前的分区无法满足负载时, 就需要增加更多分区,这时就需要对数据库进行reshard resharding 的工作非常耗时而痛苦,因 为需要协调很多工作,例如数据的迁移、更新客户端访问的分区地址,更新应用程序代码。如果系统本身还提供了在线访问服务,对运维的要求就更高。这种情况下,就可能导致数据写到错误的分区,因此必须要编写脚本来自动完成,且需要充分的测试。

由此可见,在数据层和应用中增加了缓冲隔离,数据量的日渐增多仍然迫使传统数据仓库的开发者一次又一次挖掘系统,试图在各个方面寻找一点可提升的性能。架构变得越来越复杂, 增加了队列、分区、复制、重分区脚本 (Resharding  Scripts)。应用程序还需要了解数据库的 schema, 并能访问到正确的分区。问题在于:数据库对于分区是不了解的,无法帮助你应对分 区、复制与分布式查询。

最严重的问题是系统并没有对人为错误进行工程设计,仅靠备份是不能治本的。归根结底, 系统还需要限制因为人为错误导致的破坏。然而,数据永不止步,传统架构的性能被压榨至极 限,检索数据的延迟和频繁的硬件错误问题逐渐使用户不可接受,在传统架构上进行继续挖掘被证明是“挤牙膏”。帮助处理海量数据的新技术和新架构开发被提上日程,以求得让企业在现代竞争中占得先机。越来越多的开发者参与到新技术与新架构的研究探讨中,结论与成果逐渐丰硕。人们发现,当系统的用户访问量持续增加时,就需要考虑读写分离技术 (Master-Slave)和分库分表技术。常见读写分离技术架构如上图所示。

现在,数据处理系统的架构变得越来越复杂了,相比传统的数据库, 一次数据处理的过程增加了队列、分区、复制等处理逻辑。应用程序不仅仅需要了解数据的存储位置,还需要了解数据库的存储格式、数据组织结构 (schema)    等信息,才能访问到正确的数据。

随着技术的不断发展,商业现实也发生了变化。除了要求同一时间内可以处理的数据量提 升,现代商业要求更快做出的决定更有价值。现在,KafkaStormTridentSamzaSpark Flink Parquet Avro Cloud       providers 等新技术成为了工程师和企业广泛采用的流行语。基于新技术,不少企业开发了自己的数据处理方式,现代基于Hadoop   Map/Reduce  道 ( 使  Kafka,Avro 和数据仓库等现代二进制格式,即 Amazon  Redshift,用于临时查询)采用了 如图所示。

这个方式虽然看起来有其非常好的优势,但它仍然是一种传统的批处理方式,具有所有已知的缺点,主要原因是客户端的数据在批处理花费大量时间完成之前的数据处理时,新的数据已经进入而导致数据过时。

基于传统系统出现的上述问题和无数人对于新技术的渴求与探讨,“大数据”的概念被适时 的提出,研究与设计大数据系统成为了新的风潮。我们要学习的大数据系统架构设计理论,正是为了解决在处理海量数据时出现的种种问题,并让系统在一定的度量属性下可以接受,成为构造大数据系统的良好范式。


2、大数据处理系统架构分析

2.1  大数据处理系统面临挑战

当今,大数据的到来,已经成为现实生活中无法逃避的挑战。每当我们要做出决策的时候, 大数据就无处不在。大数据术语广泛地出现也使得人们渐渐明白了它的重要性。大数据渐渐向人们展现了它为学术、工业和政府带来的巨大机遇。与此同时,大数据也向参与的各方提出了巨大的挑战。那么主要挑战表现在以下三点。

(1)如何利用信息技术等手段处理非结构化和半结构化数据

大数据中,结构化数据只占15%左右,其余的85%都是非结构化的数据,它们大量存在于社交网络、互联网和电子商务等领域。另一方面,也许有90%的数据来自开源数据,其余的被存储在数据库中。大数据的不确定性表现在高维、多变和强随机性等方面。股票交易数据流是不确定性大数据的一个典型例子。

大数据催生了大量研究问题。非结构化和半结构化数据的个体表现、 一般性特征和基本原理尚不清晰,这些都需要通过包括数学、经济学、社会学、计算机科学和管理科学在内的多学科交叉来研究和讨论。给定一种半结构化或非结构化数据,比如图像,如何把它转换成多维数据表、面向对象的数据模型或者直接基于图像的数据模型。值得注意的是,大数据每一种表示形式都仅为数据本身的一个侧面表现,并非全貌。

如果把通过数据挖掘提取“粗糙知识”的过程称为“一次挖掘”过程,那么将粗糙知识与被 化后主观知识,包括具体的经验、常识、本能、情境知识和用户偏好,相结合而产生“智能 知识”过程就叫作“二次挖掘”。从“一次挖掘”到“二次挖掘”,就类似于事物由“量”到 “质”的飞跃。

由于大数据所具有的半结构化和非结构化特点,基于大数据的数据挖掘所产生的结构化的 “粗糙知识”(潜在模式)也伴有一些新的特征。这些结构化的粗糙知识可以被主观知识加工处 理并转化,生成半结构化和非结构化的智能知识。寻求“智能知识”反映了大数据研究的核心 价值。

(2)如何探索大数据复杂性、不确定性特征描述的刻画方法及大数据的系统建模

这一问题的突破是实现大数据知识发现的前提和关键。从长远角度来看,依照大数据的个体复杂性和随机性所带来的挑战将促使大数据数学结构的形成,从而促使大数据统一理论日趋 完备。从短期而言,学术界鼓励发展一种一般性的结构化数据和半结构化、非结构化数据之间 的转换原则,以支持大数据的交叉工业应用。管理科学,尤其是基于最优化的理论将在大数据 知识发现的一般性方法和规律性的研究中发挥重要的作用。

大数据的复杂形式导致许多对“粗糙知识”的度量和评估相关的研究问题。已知的最优 化、数据包络分析、期望理论、管理科学中的效用理论可以被应用到研究如何将主观知识 融合到数据挖掘产生的粗糙知识的“二次挖掘”过程中。这里人机交互将起到至关重要的 作用。

(3)数据异构性与决策异构性的关系对大数据知识发现与管理决策的影响

由于大数据本身的复杂性,这一问题无疑是一个重要的科研课题,对传统的数据挖掘理论和技术提出了新的挑战。在大数据环境下,管理决策面临着两个“异构性”问题:“数据异构性” 和“决策异构性”。传统的管理决策模式取决于对业务知识的学习和日益积累的实践经验,而管   理决策又是以数据分析为基础的。

大数据已经改变了传统的管理决策结构的模式。研究大数据对管理决策结构的影响会成为一个公开的科研问题。除此之外,决策结构的变化要求人们去探讨如何为支持更高层次的决策 而去做“二次挖掘”。无论大数据带来了哪种数据异构性,大数据中的“粗糙知识”仍可被看作 “一次挖掘”的范畴。通过寻找“二次挖掘”产生的“智能知识”来作为数据异构性和决策异构性 之间的桥梁是十分必要的。探索大数据环境下决策结构是如何被改变的,相当于研究如何将决 策者的主观知识参与到决策的过程中。

大数据是一种具有隐藏法则的人造自然,寻找大数据的科学模式将带来对研究大数据之美 的一般性方法的探究,尽管这样的探索十分困难,但是如果我们找到了将非结构化、半结构化 数据转换成结构化数据的方法,已知的数据挖掘方法将成为大数据挖掘的工具。

2.2  大数据处理系统架构特征

Storm 之父Nathan Marz 在《大数据系统构建:可扩展实时数据系统构建原理与最佳实践》 一书中,提出了他认为大数据系统应该具有的属性。

(1)鲁棒性和容错性(Robust and Fault-tolerant )

对大规模分布式系统来说,机器是不可靠的,可能会宕机,但是系统需要是健壮、行为正确的,即使是遇到机器错误。除了机器错误,人更可能会犯错误。在软件开发中难免会有一些Bug,   系统必须对有Bug 的程序写入的错误数据有足够的适应能力,所以比机器容错性更加重要的容错性是人为操作容错性。对于大规模的分布式系统来说,人和机器的错误每天都可能会发生,如何应对人和机器的错误,让系统能够从错误中快速恢复尤其重要。

(2)低延迟读取和更新能力 (Low Latency Reads and Updates)

许多应用程序要求数据系统拥有几毫秒到几百毫秒的低延迟读取和更新能力。有的应用程序允许几个小时的延迟更新,但是只要有低延迟读取与更新的需求,系统就应该在保证鲁棒性的前提下实现。

(3)横向扩容 (Scalable)

当数据量/负载增大时,可扩展性的系统通过增加更多的机器资源来维持性能。也就是常说的系统需要线性可扩展,通常采用scale out(通过增加机器的个数)而不是 scale up (通过增 强机器的性能)。

(4)通用性(General)

系统需要支持绝大多数应用程序,包括金融领域、社交网络、电子商务数据分析等。

(5)延展性(Extensible)

在新的功能需求出现时,系统需要能够将新功能添加到系统中。同时,系统的大规模迁移 能力是设计者需要考虑的因素之一,这也是可延展性的体现。

(6)即席查询能力 (Allows Ad Hoc Queries)

用户在使用系统时,应当可以按照自己的要求进行即席查询(Ad过系统多样化数据处理,产生更高的应用价值。

(7)最少维护能力(Minimal   Maintenance)

系统需要在大多数时间下保持平稳运行。使用机制简单的组件和算法让系统底层拥有低复 杂度,是减少系统维护次数的重要途径。Marz 认为大数据系统设计不能再基于传统架构的增量 更新设计,要通过减少复杂性以减少发生错误的几率、避免繁重操作。

(8)可调试性 (Debuggable)

系统在运行中产生的每一个值,需要有可用途径进行追踪,并且要能够明确这些值是如何 产生的。


3、大数据技术发展简史

3.1、大数据技术的起源(大数据的三驾马车)

大数据最早是起源于google。大家都知道google主要是提供网页检索服务,而这项服务依赖两个能力:网页的收集,索引的构建。有了这两个能力,我们才能通过检索服务搜索到互联网上的网页。这些网页和索引都需要大量的存储和计算能力。为了提高这两个能力,谷歌发表了三篇重要的论文。

  • 2003年,分布式文件系统GFS。

  • 2004年,大数据分布式计算框架MapReduce。

  • 2006年,NoSql数据库系统BigTable。

这三篇论文奠定了大数据技术的基础,也就是我们经常说的大数据得三驾马车。一个是文件系统,一个是计算框架,一个是数据库系统,当时Google发表的论文让业界沸腾,从此开启了大数据时代。在那之前,大多数公司其实还是聚焦在单机上,在思考如何提升单机的性能,寻找更贵更好的服务器。而 Google 的思路是部署一个大规模的服务器集群,通过分布式的方式将海量数据存储在这个集群上,然后利用集群上的所有机器进行数据计算。 这样,Google 其实不需要买很多很贵的服务器,它只要把这些普通的机器组织到一起,就能够进行大规模的计算了。

3.2、Hadoop的诞生(分布式数据存储和计算的框架)

Lucene开源项目创始人Doug Cutting正在开发开源搜索引擎Nutch,阅读了Google的论文后,根据论文原理实现了类似GFS和MapReduce的功能。3年后也就是2006年,Doug Cutting将这些大数据相关的功能从Nutch中分离了出来,然后启动了一个独立的项目专门开发和维护大数据技术,这就是后来赫赫有名的Hadoop,主要包括 Hadoop 分布式文件系统 HDFS 和大数据计算引擎 MapReduce。

大家看Hadoop的源码就会发现,这个用纯Java实现的软件没有什么特别之处,诞生它给社会带来了巨大的影响,甚至带动了一场深刻的科技革命,推动了人工智能的发展和进步。

Hadoop发布以后,Yahoo开始使用起来,2007年百度和阿里也开始使用Hadoop进行大数据存储和计算。2008年Hadoop成为Apache顶级项目。

3.3、Yahoo的Pig

2006年,Yahoo觉得用MapReduce进行大数据编程太麻烦了,于是开发了Pig脚本语言,类似SQL语法,Pig经过编译后生成MapReduce程序,在Hadoop上运行,大大优化了MapReduce的使用难度。

3.4、Facebook的Hive(Hadoop数据仓库工具)

2007年,编写Pig虽然比MapReduce编程简单,但是还是要学习。于是Facebook发布了Hive,支持使用SQL语法进行大数据计算,写个Select语句进行数据查询,Hive会将SQL语句转化成

MapReduce计算程序。这样,熟悉数据库的数据分析师和工程师便可以无门槛地使用大数据进行数据分析和处理了,Hive出现后大大降低了Hadoop的使用难度,迅速得到开发者和企业的追捧。

众多Hadoop产品开始出现,包括:专门将关系数据库中的数据导入导出到 Hadoop 平台的 Sqoop;针对大规模日志进行分布式收集、聚合和传输的 Flume;MapReduce 工作流调度引擎 Oozie 等。

​Hive是基于Hadoop的一个数据仓库工具,用来进行数据提取、转化、加载,这是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。hive数据仓库工具能将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,能将SQL语句转变成MapReduce任务来执行。Hive的优点是学习成本低,可以通过类似SQL语句实现快速MapReduce统计,使MapReduce变得更加简单,而不必开发专门的MapReduce应用程序。hive十分适合对数据仓库进行统计分析。​

3.5、Powerset的HBASE(NoSQL列式数据库)

2007年Powerset的工作人员,通过google的论文开发出了BigTable的java版本,即HBASE。2008年HBASE贡献给了Apache。

3.6、Yarn的诞生(大数据资源调度框架)

Hadoop 早期,MapReduce 既是一个执行引擎,又是一个资源调度框架,服务器集群的资源调度管理由 MapReduce 自己完成。但是这样不利于资源复用,也使得 MapReduce 非常臃肿。于是一个新项目启动了,将 MapReduce 执行引擎和资源调度分离开来,这就是 Yarn大数据资源调度框架。

3.7、Spark的诞生(批处理计算引擎)

2012 年,UC 伯克利 AMP 实验室开发的 Spark 开始崭露头角,马铁博士发现使用 MapReduce 进行机器学习计算的时候性能非常差,因为机器学习算法通常需要进行很多次的迭代计算,而 MapReduce 每执行一次 Map 和 Reduce 计算都需要重新启动一次作业,带来大量的无谓消耗,影响执行效率。

MapReduce 主要使用磁盘作为存储介质,而 2012 年的时候,内存已经突破容量和成本限制,成为数据运行过程中主要的存储介质。Spark 一经推出,立即受到业界的追捧,并逐步替代MapReduce 在企业应用中的地位。

3.8、大数据批处理和流处理

(1)批处理(大数据离线计算

像 MapReduce、Spark 这类计算框架处理的业务场景都被称作批处理计算,通常按天或者固定时间段,进行一次计算,计算的数据是历史数据,也称为大数据离线计算。

(2)流处理(大数据实时计算

还有一种场景,需要对实时产生的大量数据进行即时计算,例如人脸识别,这类计算称为大数据流计算,对应的有Storm、Flink、Spark Streaming 等流计算框架来满足此类大数据应用的场景,这类计算也称为大数据实时计算。

3.9. NoSQL

NoSQL 曾经在 2011 年左右非常火爆,涌现出 HBase、Cassandra 等许多优秀的产品,其中 HBase 是从 Hadoop 中分离出来的、基于 HDFS 的 NoSQL 系统。


4、 OLTP和OLTP区别

(1)OLTP 联机事务处理

为了保证对业务的快速响应和支持,针对产品和业务功能有一个直接的数据库与之进行交互。

OLTP(OnLine Transaction Processsing 联机事务处理)是与功能、业务强相关的事务查询系统,要保证高并发场景下低时延的查询和处理效率,因此对CPU的性能要求较高。直接存储与功能和业务直接相关的地方,就叫数据库,一般是服务端开发的同事来负责。

如上提到,数据库主要为在线业务服务。如果是分析场景需要查询数据,涉及到从业务数据库取数据,就意味着会影响业务数据库对业务的支持。量小还好,量大或者查询比较复杂,服务端的同事就会担心影响到线上业务,或者把业务数据库查“崩”了影响线上业务,因此非常nice地拒绝你的需求。所以企业在经过初期的市场验证阶段后,会开始寻求从数据中找到下一步发展的方向,直接从业务数据库获取数据限制颇多,因此这时候就需要搭建数据仓库体系了。

(2)OLAP(OnLine Analytical Processing联机分析处理)

数据仓库是独立于业务数据库之外的一套数据存储体系,OLAP(OnLine Analytical Processing联机分析处理)是数据仓库系统的主要应用,能够支持复杂的分析操作,与数据库需要直接直接线上业务不同,数据仓库侧重于分析决策,提供直观的数据查询结果。(当然数据仓库也是可以支持线上业务的,下面会提到)。

数据上报时,就可以将偏分析场景的数据,只往数据仓库存(如用户加购行为、收藏音乐歌单行为);之前存在业务数据库的一些数据,也可以逐步移向数据仓库进行存储,尽量让业务数据库将主要精力花在业务应用支持上,而数据仓库则将精力主要投入到分析场景中,为运营决策者提供快速的数据导出和查询等分析应用。

前面提到的,数据仓库在一些场景下也是可以支持业务应用的,比如电商场景下常见的,根据用户行为做商品推荐。用户的行为数据存进数仓后,进行实时计算,然后将算法模型计算出的推荐结果发给业务端做展示。

(3)数据库和数据仓库区别

数据库:是OLTP(联机事务处理)应用的场景,其存储的主要是与业务直接相关的数据,强调准确、低时延、高并发,如果没有特别强调,基本上数据库里只会去存储与业务相关的数据。

数据仓库:OLAP(联机分析处理)是数据仓库系统的主要应用,其支持的对象主要是面向分析场景的应用,提供结构化的、主题化的数据提供给运营,做业务反馈和辅助决策用,同时,有些场景下,也可以由数据仓库对业务进行支持。


参考链接:1. 什么是OLTP、OLAP、数据库和数据仓库? - 知乎

  • 20
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
AI(人工智能)是一种涉及计算机科学的科技领域,旨在开发具有类似人类智能的机器系统。AI的发展可以追溯到上世纪50年代,当时科学家们开始尝试构建能够模拟人类思维和决策的计算机程序。然而,在那个时代,计算机的处理能力非常有限,无法满足较复杂的智能任务需求。 随着时间的推移,计算机技术的不断进步和计算能力的提高,AI也逐渐发展起来。20世纪80年代,专家系统作为AI的重要分支出现,并在诸多领域取得了广泛应用。这些系统基于专家的知识,能够通过推理和模拟进行决策和问题解决。然而,由于缺乏实际的学习能力,这些系统的适用性和灵活性受限。 到了20世纪90年代,神经网络和机器学习的兴起,为AI领域带来了重大突破。机器学习算法能够通过分析大量数据,自动获取规律和模式,并根据这些信息做出预测和决策。此外,进一步的研究和发展使得计算机能够进行自然语言处理、图像识别等高级功能,使得AI的应用领域更加广泛。 如今,AI已经渗透到我们生活的方方面面。在技术案例方面,例如自动驾驶汽车、人脸识别技术、语音助手等,AI正在为人们的生活带来巨大的变革。在商业应用方面,AI被广泛应用于金融、医疗、制造业等行业,为企业提供智能决策和高效运营的支持。AI的发展也推动了电子书下载的兴起,使得用户能够方便地获取、阅读和共享电子书籍。 总之,AI人工智能的发展经历了多个阶段,并逐渐成为一种具有广泛影响力的关键技术。随着科技的不断进步和创新,AI有望继续发展,并为人类带来更多的便利和机会。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Java架构何哥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值