大数据入门之Hadoop(二:HDFS基础知识)

一、大数据技术生态体系

在这里插入图片描述

图中涉及的技术名词解释如下:

1)Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。

2)Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:

(1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。

(2)高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。

(3)支持通过Kafka服务器和消费机集群来分区消息。

(4)支持Hadoop并行数据加载。

4)Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。

5)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。

6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。

7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。

8)Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。

10)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。

11)Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。

12)ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。

二、集群规划

HDFS: NN DN(至少3个) 2NN
Yarn:RM NM(至少3个)
DN(管理当前节点的存储)和NM(管理当前节点的CPU和内存)混搭在一起,NN是HDFS的主机,RM是Yarn的主机。
所以一个集群的最小规模:6台机器,NN=1,DN=NM=3,2NN=1,RM=1

2.1 群启集群要求

要使用Hadoop自带的虚拟机脚本来群启集群时需要配置SSH免密登陆。
SSH(Secure Shell)是一种加密的网络传输协议。它是以非对称加密实现身份验证。

三、HDFS概述及优缺点

3.1 概述

HDFS:即Hadoop Distributed File System, Hadoop分布式文件系统。
使用场景:适合一次写入,多次读出的场景,且不支持文件的修改!
适合做数据分析,并不适合做网盘应用。

3.2 HDFS的优点

1.高容错性:数据自动保存多个副本,某一个副本丢失后它可以自动恢复。
2.适合处理大数据:能出来数据规模达到GB\TB甚至PB级数据
3.可构建在廉价机器上,通过多副本机制,提高可靠性

3.3 HDFS的缺点

1.不适合低延时数据访问,比如毫秒级的存储数据是做不到的。
2.无法高效的对大量小文件进行存储。因为会占用NN大量的内存来存储文件目录和块信息,因为NN的内存是有限的。
3.不支持并发写入、文件随即修改。一个文件只能有一个写,不允许多线程同时写,且仅支持数据append(追加),不支持文件的随机修改。

3.4 HDFS组成架构

HDFS存储的单位是block块,而不是文件。
NN:master,它是管理者。管理HDFS的名称空间,管理数据库的映射信息,处理客户端的读写请求。
DN:就是slaver从机,实际的存储数据库block,执行NN下达的命令操作(执行数据库的读/写操作)
Client:客户端,文件切块,与NN\DN交互
2NN:不是NN的热备,不能替换NN,只是辅助NN,分担其工作量

在这里插入图片描述
在这里插入图片描述

3.5 HDFS文件块大小

在Hadoop2.x版本中默认128M,老版64M。
如果寻址时间(即找到块的时间)约为10ms,一般以寻址时间为传输时间的1%作为最佳状态。传输时间(读取时间)=10ms/0.01=1000ms=1s
而目前磁盘的传输速率普遍为100MB/s,所以block大小=1s * 100MB/s = 100MB
问题:如果block设置太小,则会增加寻址时间;block设置太大,则MR处理数据非常慢。
总结:HDFS块的大小设置主要取决于磁盘传输速率。

四、HDFS的API操作

4.1文件上传

@Test
public
void testCopyFromLocalFile() throws IOException, InterruptedException,
URISyntaxException {
   
      // 1 获取文件系统
      Configuration configuration = new
Configuration();
      configuration.set("dfs.replication",
"2");
      FileSystem fs = FileSystem.get(new
URI("hdfs://hadoop102:9000"), configuration, "atguigu");
      // 2 上传文件
      fs.copyFromLocalFile(new Path("e:/banzhang.txt"),
new Path<
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值