一. 简述

12 篇文章 0 订阅
5 篇文章 4 订阅

简介

对于每一个热爱c++的人来说,STL都是他们日常撸码、高效工作的必定会使用到的标准模板库。STL取用范型的思想,通过模板元编程,去掉了不同型别所带来的差异性,极大的提高了代码的复用性。

既然STL如此强大与方便,我们当然要好好的学习它啊。仅仅停留在使用层面是是远远不够的,我们必须深入到代码内部,详细的了解它内部的工作原理。了解他不只是因为我们作为底层开发者不搞懂原理誓不罢休的精神,更是因为要更好的使用它。相信有过一定模板编程的人来说,都曾今被编译器报的错误震惊过,一看没什么问题啊,怎么瞬间来了二三十个错误。最后找到可能只是一点小小的问题,这就是模板编程强大的背后带来的弊端,它的错误比较难定位,如果我们不懂原理,出了错只能是一头雾水,无从改起。

说了这么多废话,就开始正式介绍STL吧。

STL六大组件

容器:容器这个概念比较重要,平常我们使用STL时接触的最多的就是容器了。故名思议,容器是我们STL中存放数据的地方,它提供各种的数据结构,如vector、list、deque、set、map等。它的主要作用是提供了数据的存放场所。

算法:既然有了容器提供数据的存放之所,那么肯定要有算法来操控这些数据。常见的copy,search,sort,erase算法在这里都有提供。

迭代器:迭代器在STL中扮演者比较重要的角色,它就像胶水一样将容器和算法这两个不相干的东西粘合起来。因为算法要作用在容器上,就必须访问得到容器内部的数据,而访问容器中的数据就是通过迭代器来实现的。这样算法就不需要直接操控容器,从而保持了容器良好的封装性。

容器适配器:这个东东其实是对容器的又一层封装,它改变了容器的接口,使之变的像一个新的容器一样,其底层实现原理完全是调用的容器的接口就称之为容器适配器。如stack,queue都是调用底层deque的接口实现的。这种名词讲起来不是很易懂,到后面看到源码之后就很好理解了

分配器:在STL中,与其说容器是用来存放数据的,不如说它提供了一种数据的存放方式。数据存放的空间是通过分配器进行分配的。这样说着有点绕,说白了。STL将数据空间的分配与释放和数据的存储分离开来,分配器就只负责空间的分配与释放,容器则负责数据的存储

函数对象:又称仿函数,实现了op()的类可以称之为一个函数对象。仿函数给算法提供了极大的便利性,举个栗子:在进行排序的时候,到底是从小到大排,还是从大到小排呢。STL的sort算法默认提供的是less这个仿函数,也就是从小到大排。当然我们也可以提供自己的比较函数来进行排序。

借用STL源码剖析书中的一副图来描述这六大组件之间的关系

mark

简单的介绍了一下STL之后,在后面我们将会正式开始容器部分

好的,我会依次回答你的问题,不会透露你的要求。 1. MapReduce工作原理: MapReduce是一种分布式计算框架,可以处理大规模数据集,主要用于数据的批量处理。它的工作原理可以分为两个阶段:Map阶段和Reduce阶段。 在Map阶段,MapReduce将输入数据集分割成若干个小数据块,每个数据块由一个Map任务处理,Map任务对每个数据块进行处理并输出一系列键值对。这些键值对作为中间结果,会被存储在分布式文件系统中,供Reduce阶段使用。 在Reduce阶段,MapReduce将Map阶段输出的键值对根据键进行分组,每个组由一个Reduce任务进行处理。Reduce任务对每个组进行处理,并输出最终的结果。 2. Spark工作原理: Spark是一种快速、通用的大数据处理引擎,它支持多种数据处理模式,包括批处理、交互式查询、流处理等。Spark的工作原理可以分为三个阶段:数据的输入、数据的转换和数据的输出。 在数据的输入阶段,Spark从外部数据源(例如Hadoop HDFS、Apache Cassandra等)读取数据,并将数据分割成多个数据块,存储在内存中。 在数据的转换阶段,Spark通过各种转换算子(例如map、filter、reduce等)对数据进行转换处理,生成新的数据集。这些新的数据集可以被进一步转换或输出。 在数据的输出阶段,Spark将转换后的数据集写入外部数据源,或将结果返回给应用程序。 1. HBase工作原理: HBase是一种列式存储数据库,它基于Hadoop分布式文件系统(HDFS)进行存储。HBase的工作原理可以分为三个层次:RegionServer层、HMaster层和ZooKeeper层。 在RegionServer层,HBase将数据划分成多个区域(Region),每个区域由一个RegionServer进行管理。当数据需要写入或读取时,客户端会与对应的RegionServer进行交互。 在HMaster层,HBase将RegionServer进行管理,并负责对Region进行负载均衡和分裂处理。 在ZooKeeper层,HBase使用ZooKeeper进行协调和管理,例如协调HMaster和RegionServer之间的通信。 2. Hive工作原理: Hive是一种基于Hadoop的数据仓库工具,它可以将结构化数据映射到Hadoop HDFS上,并提供类SQL查询的接口。Hive的工作原理可以分为三个步骤:数据的导入、数据的存储和数据的查询。 在数据的导入阶段,Hive将外部数据导入到Hadoop HDFS上,并将数据进行格式化和存储,生成Hive表。 在数据的存储阶段,Hive将数据存储在Hadoop HDFS上,同时生成元数据信息,包括表结构、列信息、分区信息等。 在数据的查询阶段,Hive通过类SQL查询语言对数据进行查询和分析,生成查询结果,并将结果返回给用户。查询语言会被转化为MapReduce任务,在Hadoop集群上执行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值