大数据时代之好程序员应该了解的大数据概念

185 篇文章 3 订阅
37 篇文章 0 订阅

大数据:指无法在一定时间范围内用常规软件工具进行捕捉,管理和处理的数据集合,是需要新模式才能具有更强大的决策力,洞察发现力和流程优化能力的海量,高增长率和多样化的信息资产

最小的基本单位是bit,按顺序给出所有单位:bit、Byte、KB、MB、GB、TB、PB、EB、ZB、YB、BB、NB、DB。

1 Byte =8 bit 1 KB = 1,024 Bytes = 8192 bit 1 MB = 1,024 KB = 1,048,576 Bytes 1 GB = 1,024 MB = 1,048,576 KB 1 TB = 1,024 GB = 1,048,576 MB 1 PB = 1,024 TB = 1,048,576 GB 1 EB = 1,024 PB = 1,048,576 TB 1 ZB = 1,024 EB = 1,048,576 PB 1 YB = 1,024 ZB = 1,048,576 EB 1 BB = 1,024 YB = 1,048,576 ZB 1 NB = 1,024 BB = 1,048,576 YB 1 DB = 1,024 NB = 1,048,576 BB

主要解决,海量数据的存储和海量数据的分析计算问题

 

2 大数据的特点

1、大量。大数据的特征首先就体现为“大”,从先Map3时代,一个小小的MB级别的Map3就可以满足很多人的需求,然而随着时间的推移,存储单位从过去的GB到TB,乃至现在的PB、EB级别。随着信息技术的高速发展,数据开始爆发性增长。社交网络(微博、推特、脸书)-、移动网络、各种智能工具,服务工具等,都成为数据的来源。淘宝网近4亿的会员每天产生的商品交易数据约20TB;脸书约10亿的用户每天产生的日志数据超过300TB。迫切需要智能的算法、强大的数据处理平台和新的数据处理技术,来统计、分析、预测和实时处理如此大规模的数据。

2、多样。广泛的数据来源,决定了大数据形式的多样性。任何形式的数据都可以产生作用,目前应用最广泛的就是推荐系统,如淘宝,网易云音乐、今日头条等,这些平台都会通过对用户的日志数据进行分析,从而进一步推荐用户喜欢的东西。日志数据是结构化明显的数据,还有一些数据结构化不明显,例如图片、音频、视频等,这些数据因果关系弱,就需要人工对其进行标注。

3、高速。大数据的产生非常迅速,主要通过互联网传输。生活中每个人都离不开互联网,也就是说每天个人每天都在向大数据提供大量的资料。并且这些数据是需要及时处理的,因为花费大量资本去存储作用较小的历史数据是非常不划算的,对于一个平台而言,也许保存的数据只有过去几天或者一个月之内,再远的数据就要及时清理,不然代价太大。基于这种情况,大数据对处理速度有非常严格的要求,服务器中大量的资源都用于处理和计算数据,很多平台都需要做到实时分析。数据无时无刻不在产生,谁的速度更快,谁就有优势。

4、价值。这也是大数据的核心特征。现实世界所产生的数据中,有价值的数据所占比例很小。相比于传统的小数据,大数据最大的价值在于通过从大量不相关的各种类型的数据中,挖掘出对未来趋势与模式预测分析有价值的数据,并通过机器学习方法、人工智能方法或数据挖掘方法深度分析,发现新规律和新知识,并运用于农业、金融、医疗等各个领域,从而最终达到改善社会治理、提高生产效率、推进科学研究的效果

 

HADOOP背景介绍

 

1.1 什么是HADOOP

介绍官网hadoop.apache.com --> 看不懂可以使用百度翻译

Apache Hadoop 为可靠的,可扩展的分布式计算开发开源软件。 Apache Hadoop软件库是一个框架,它允许使用简单的编程模型跨计算机群集分布式处理大型数据集(海量的数据)。 包括这些模块:

• Hadoop Common:支持其他Hadoop模块的常用工具。

• Hadoop分布式文件系统(HDFS™):一种分布式文件系统,可提供对应用程序数据的高吞吐量访问。

• Hadoop YARN:作业调度和集群资源管理的框架。

• Hadoop MapReduce:一种用于并行处理大型数据集的基于YARN的系统。

上述每个模块有自己独立的功能,而模块之间又有相互的关联。

广义上来说,HADOOP通常是指一个更广泛的概念——HADOOP生态圈

 

1.2 HADOOP产生背景

雏形开始于2002年的Apache的Nutch,Nutch是一个开源Java 实现的搜索引擎。它提供了我们运行自己的搜索引擎所需的全部工具。包括全文搜索和Web爬虫。Nutch的设计目标是构建一个大型的全网搜索引擎,包括网页抓取、索引、查询等功能,但随着抓取网页数量的增加,遇到了严重的可扩展性问题--------“如何解决数十亿网页的存储和索引问题”。

• 2003年Google发表了一篇技术学术论文谷歌文件系统(GFS)。GFS也就是google File System,google公司为了存储海量搜索数据而设计的专用文件系统。

• 2004年Nutch创始人Doug Cutting基于Google的GFS论文实现了分布式文件存储系统名为NDFS。

ps:2003-2004年,Google公开了部分GFS和Mapreduce思想的细节,以此为基础Doug Cutting等人用了2年业余时间实现了DFS和Mapreduce机制,一个微缩版:Nutch

• 2004年Google又发表了一篇技术学术论文MapReduce。MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行分析运算。

• 2005年Doug Cutting又基于MapReduce,在Nutch搜索引擎实现了该功能。

 

国内外HADOOP应用案例介绍

• 大型网站Web服务器的日志分析:一个大型网站的Web服务器集群,每5分钟收录的点击日志高达800GB左右,峰值点击每秒达到900万次。每隔5分钟将数据装载到内存中,高速计算网站的热点URL,并将这些信息反馈给前端缓存服务器,以提高缓存命中率。

• 运营商流量经营分析:每天的流量数据在2TB~5TB左右,拷贝到HDFS上,通过交互式分析引擎框架,能运行几百个复杂的数据清洗和报表业务,总时间比类似硬件配置的小型机集群和DB2快2~3倍。

 

1.5 国内HADOOP的就业情况分析

可以联网查智联

大数据方面的就业主要有三大方向:

• 数据分析类大数据人才 对应岗位 大数据系统研发工程师

• 系统研发类大数据人才 对应岗位 大数据应用开发工程师

• 应用开发类大数据人才 对应岗位 大数据分析师

 

大数据技术生态体系

上图中涉及到的技术名词解释如下:

1)Sqoop:sqoop 是一款开源的工具,主要用于在 Hadoop(Hive)与传统的数据库(mysql)间进 行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle 等)中的数据导进到 Hadoop 的 HDFS 中,也可以将 HDFS 的数据导进到关系型数据库中。

2)Flume:Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集、聚 合和传输的系统,Flume 支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume 提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

3)Kafka:Kafka 是一种高吞吐量的分布式发布订阅消息系统,有如下特性:

(1)通过 O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以 TB 的消息 存储也能够保持长时间的稳定性能。 (2)高吞吐量:即使是非常普通的硬件 Kafka 也可以支持每秒数百万的消息 (3)支持通过 Kafka 服务器和消费机集群来分区消息。

(4)支持 Hadoop 并行数据加载。

4)Storm:Storm 为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时

处理消息并更新数据库。这是管理队列及工作者集群的另一种方式。 Storm 也可被用于“连

续计算”(continuous computation),对数据流做连续查询,在计算时就将结果以流的形式

输出给用户。

5)Spark:Spark 是当前最流行的开源大数据内存计算框架。可以基于 Hadoop 上存储的大数据进行计算。

6)Oozie:Oozie 是一个管理 Hdoop 作业(job)的工作流程调度管理系统。Oozie 协调作业 就是通过时间(频率)和有效数据触发当前的 Oozie 工作流程。

7)Hbase:HBase 是一个分布式的、面向列的开源数据库。HBase 不同于一般的关系数据库, 它是一个适合于非结构化数据存储的数据库。

8)Hive:hive 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张 数据库表,并提供简单的 sql 查询功能,可以将 sql 语句转换为 MapReduce 任务进行运行。 其优点是学习成本低,可以通过类 SQL 语句快速实现简单的 MapReduce 统计,不必开发专 门的 MapReduce 应用,十分适合数据仓库的统计分析。

9)Mahout:

Apache Mahout是个可扩展的机器学习和数据挖掘库,当前Mahout支持主要的4个用 例: 推荐挖掘:搜集用户动作并以此给用户推荐可能喜欢的事物。 聚集:收集文件并进行相关文件分组。 分类:从现有的分类文档中学习,寻找文档中的相似特征,并为无标签的文档进行正确 的归类。

频繁项集挖掘:将一组项分组,并识别哪些个别项会经常一起出现。

10)ZooKeeper:Zookeeper 是 Google 的 Chubby 一个开源的实现。它是一个针对大型分布 式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。 ZooKeeper 的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能 稳定的系统提供给用户。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
大数据时代读后感全文共13页,当前为第1页。大数据时代读后感全文共13页,当前为第1页。大数据时代读后感 大数据时代读后感全文共13页,当前为第1页。 大数据时代读后感全文共13页,当前为第1页。 发布:励志 " 分类:读后感 " 发表评论   大数据时代读后感(一)   去年的"云计算"炒得热火朝天的,今年的"大数据"又突袭而来。仿佛一夜间,各厂商都纷纷改旗换帜,推起"大数据"来了。于是乎,各企业的CIO也将热度纷纷转向关注"大数据"来了。有一张来自《程序员》微博的漫画很形象。我觉得这张图,很真实地反映了现实中小企业云计算,大数据的现状。   不过话又还得说回来,《大数据时代》是本好书。   当然,很多IT知名人士也大力推荐,写了好多读后感来表述对这本书的喜欢没看此书之前,对所谓大数据概念基本上是一头雾水,虽则有了解关注过现在也比较火热的BI,觉得也差不多,可能就是更多的数据,更细致的数据分析与数据挖掘。看过此书后,感觉到之前的想法,只能算是中了一小半吧---巨量的数据,而另一前:着眼于数据关联性,而非数据精确性,或许才是大数据与现时BI最大的不同,不仅仅是方法,更多的时思想方法。不过坦白讲,到底是数据的关联性重佳,还是数据的精确性更好,还真的需要时间来检验一下,至少从现在的数据分析方法来论,更多的倾向于数据的精确性。看完此书,我心中的一些问题:   1.什么是大数据?   查了查百度百科,是这样定义的:大数据(bigdata),或称巨量资料,的是所涉及的资料量规模巨大到无法透过目前主流软件工具,在合理时间内达到撷取、管理处理、并整理成为帮助企业经营决策更积极目的的资讯。大数据的4V特点:Volume、Velocity、Variety、Veracity--这个好像是IBM的定义吧。 大数据时代读后感全文共13页,当前为第2页。大数据时代读后感全文共13页,当前为第2页。  以个人的观点来看:数据海量,存储海量都是大数据的基本原型吧。 大数据时代读后感全文共13页,当前为第2页。 大数据时代读后感全文共13页,当前为第2页。   2.大数据适合什么样的企业?   诚然,大数据的前提是海量的数据,只有拥有巨量的数据资源,方能从中查找出数据的关联性,才可以让通过   专业化的处理,让其为企业产生价值。针对电信运营,互联网应用这样海量用户的数据的大企业,也是在应用大数据的道路上拥有得天独厚的条件,但是针对中小企业呢?销售订单数据?若非百年老店,估计数据也是少得可怜,5,能用的可能只有消费者数据了吧。貌似大多数厂商,用来举例的也就是消费都购买行为分析为最多。同样,在公共事业类的政府机构,大数据的作用也许也能很好的发挥。反而感觉在大多数中小型企业应用大数据,似乎有点大题小作。书中说:大数据是企业竞争力。诚然,数据是一个企业的核心无形资源(利用得好的话),但是否所有的数据,或都换则方式说:所有的企业都以大数据为竞争力,是否真的合适么?是否在中小企业中,会显示得小题大做呢?   3.大数据带来的影响   当一波又一波的IT技术热潮源源不断地向我们铺面而来的时候,你甚至都没有做好准备,你都要开始迎接它所给你带来的影响了。经过物联网,云计算的推波助澜下,大数据开始登场了。但它到底给我们带来了什么呢?   1)预测未来书中以Google成功预测了未来可能发生流感的案例来开篇,表明通过大数据的应用,可以为我们的生活起一个保驾护航的向标。实质很简单,技术改变世界。 大数据时代读后感全文共13页,当前为第3页。大数据时代读后感全文共13页,当前为第3页。  2)变革商业大数据所带来的商机,同时会衍生出一系列与大数据相关的商业机遇与商业模式,数据的潜在价值会源源不断地发挥作用可以容易想到的是未来有专门的数据收集,数据分析,数据生成的一条数据产业链产生。影响最大的,当然是IT公司 大数据时代读后感全文共13页,当前为第3页。 大数据时代读后感全文共13页,当前为第3页。   3)变革思维书中所说:因为有海量的数据作基础,未来,我们可能更关注数据的相关,而非精细度。对这条,本人还是持保留意见的。   大数据时代读后感(二)   如今说起新媒体和互联网,必提大数据,似乎不这样说就OUT了。而且人云亦云的居多,不少谈论者甚至还没有认真读过这方面的经典着作——舍恩佰格的《大数据时代》。维克托·迈尔——舍恩伯格何许人也?他现任牛津大学网络学院互联网研究所治理与监管专业教授,曾任哈佛大学肯尼迪学院信息监管科研项目负责人。他的咨询客户包括微软、惠普和IBM等全球顶级企业,他是欧盟互联网官方政策背后真正的制定者和参与者,他还先后担任多国政府高层的智囊。这位被誉为:大数据时代的预言家"的牛津教授真牛!那么,这位大师说的都是金科玉律吗?并不一定,读大师的作品一定要做

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值