大数据1:前言Hadoop基础及大数据方面的基础知识

本文介绍了大数据的基础知识,包括大数据的四大特点。接着详细阐述了学习大数据的路线,涵盖数据采集、存储、计算和查询等方面。讨论了Hadoop发行版Apache Ambari及其简化集群管理的特点。此外,还探讨了Hadoop生态圈和数据仓库的基本架构,如HDFS、Zookeeper和YARN等关键组件的作用。最后提到了HBase、Flume和Spark等大数据处理工具。
摘要由CSDN通过智能技术生成

大数据

大数据指的是那些数据量特别大,数据类型特别复杂的数据集。这些数据集无法使用传统的数据库进行存储、管理和处理。大数据的主要特点为:数据量大(Volume),数据类型特别复杂(Variety),数据处理速度快(Velocity)和数据真实性高(Veracity)。

学习路线

1. 数据采集,主要包括flume等;

2. 数据存储,海量数据怎样有效的存储,主要包括hdfs、Kafka;

3. 数据计算,海量数据怎样快速计算,主要包括MapReduce、Spark、storm等;

4. 数据查询,海量数据怎样快速查询,主要为Nosql和Olap,Nosql主要包括Hbase、 Cassandra 等,其中olap包括kylin、impla等,其中Nosql主要解决随机查询,Olap技术主要解决关联查询;

5. 数据挖掘,海量数据怎样挖掘出隐藏的知识,也就是当前火热的机器学习和深度学习等技术,包括TensorFlow、mahout、spark等。

Hadoop发行版

Apache Ambari是Hortonworks开源的Hadoop平台的管理软件,基于Web界面友好,提供Web UI进行可视化的集群管理、运维等基本功能,支持Apache Hadoop集群的供应、管理和监控。Ambari已支持大多数Hadoop组件,包括HDFS、MapReduce、Hive、Pig、 Hbase、Zookeeper、Sqoop等,简化了大数据平台的安装、使用难度。

Hadoop生态圈

Hadoop 是 Apache 旗下的一套开源软件平台,Hadoop 可以利用计算机集群,根据用户自定义的业务逻辑对海量数据进行分布式处理,通常我们说的 Hadoop 是指一个更广泛的概念--Hadoop 生态圈

Hadoop 生态圈是指以 Hadoop 为基础发展出来的一系列技术。这些技术都是为了解决大数据处理过程中不断出现的新问题而产生的。

图中包含目前最流行的两个大数据处理框架 Hadoop 和 Spark。蓝色部分是 Hadoop 的生态圈组件,黄色部分是 Spark 生态圈组建。这两个框架之间的关系并不是互斥的,它们之间既有合作,补充又有竞争。比如 Spark 提供的实时内存计算是比 Hadoop 中 MapReduce 快的多的技术,但是 Spark 又依赖于 Hadoop 中的 HDFS 来存储数据。

数据仓库的基本架构

1. HDFS -- Hadoop分布式文件系统

大数据技术首要的要求就是先把数据存下来。HDFS(Hadoop Distributed FileSystem)的设计本质就是为了大量的数据能够横跨成千上万台机器存储,但是对于用户来说看到的是一个文件系统而不是许多文件系统。比如要获取 /hdfs/tmp/xxx的数据,虽然使用的是一个路径,但找个文件的数据可能存放在很多台不同的机器上。作为用户来说不需要知道数据到底存储在哪儿,就像你在单机上并不关心文件到底存储在磁盘那个扇区一样。这些数据交由 HDFS 来管理,用户可以更关注于数据的使用和处理。

将文件分成多个block,分散存储到不同的节点上,并提供多副本,保证数据容错性能。主从结构:

  • 主节点,可以有2个: namenode,namenode负责:管理整个集群。维护文件系统的目录结构
  • 从节点,有很多个: datanode,datanode负责:存储文件

2. ZooKeeper – Hadoop 的分布式协调服务

ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件。它是一个为分布式应用提供一致性服务的软件,提供:1.文件系统,2.通知机制

文件系统:每个子目录项如 NameService 都被称作为znode,和文件系统一样,我们能够自由的增加、删除znode,在一个znode下增加、删除子znode,唯一的不同在于znode是可以存储数据的。有四种类型的znode:

  • PERSISTENT-持久化目录节点,
  • PERSISTENT_SEQUENTIAL-持久化顺序编号目录节点,
  • EPHEMERAL-临时目录节点,
  • EPHEMERAL_SEQUENTIAL-临时顺序编号目录节点

通知机制:客户端注册监听它关心的目录节点,当目录节点发生变化(数据改变、被删除、子目录节点增加删除)时,zookeeper会通知客户端。

Zookeeper做了什么?1.命名服务   2.配置管理   3.集群管理   4.分布式锁  5.队列管理

3. yarn – 资源的调度和管理平台

为了使这么多工具有序的运行在同一个集群上,我们需要使用一个调度系统进行协调指挥。目前流行的是使用 yarn 来进行管理。

Hadoop yarn 集中管理集群的整个计算资源,以container的形式进行资源分配。主从结构:

  • 主节点,可以有2个: ResourceManager,ResourceManager负责:集群资源的分配与调度MapReduce、Spark等应用,必须实现
  • 从节点,有很多个: NodeManager,NodeManager负责:单节点资源的管理
  • (1)Client向ResourceManager发送请求 
    (2)ResourceManager指定一个NodeManager启动起ApplicationMaster 
    (3)ApplicationMaster将计算任务反馈给ResourceManager 
    (4)ApplicationMaster将任务分割分发到不同的NodeManager 
    (5)NodeManager启动Task执行work

Yarn的每个节点的详细功能:

ResourceManager 整个集群中只有一个,负责集群资源的统一管理和调度,详细功能: 

  • -处理客户端请求 
  • -启动/监控ApplicationMaster 
  • -监控NodeManager 
  • -资源分配与调度

NodeManager 整个集群有多个,负责单节点资源管理和使用,详细功能: 

  • -单个节点上的资源管理和任务管理 
  • -处理来自ResourceManager的命令 
  • -处理来自ApplicationMaster的命令

ApplicationMaster 每个应用只有一个,负责应用程序的管理,详细功能: 

  • -数据切分 
  • -为应用程序申请资源,并进一步分配给内部任务 
  • -任务监控与容错

Container 对任务运行环境的抽象,详细信息: 

  • -任务运行资源(节点,内存,CPU) 
  • -任务启动命令 
  • -任务运行环境

4. MapReduce – 离线计算框架

数据存储后,接下来就要考虑怎么处理数据了。一台计算机处理成 T 上 P 的数据可能需要几天甚至好几周,对于大部分公司都是不可接受的。比如: 热搜每 24 小时更新一次,就必须在 24 小时内分析完所有数据。如果我们使用很多台计算机进行处理就面临了计算机之间如何分配任务,如何通信,如何进行数据交换等问题。这就是 MapReduce/Tez/Spark 所要解决的问题:提供一种可靠的,能够运行在集群上的计算模型。

    4.1 一个MapReduce工作过程中:

  • 4.2.1 由Hadoop发送Map和Reduce任务到集群的相应服务器
  • 4.2.2 框架管理数据传递,例如发出任务的所有节点之间的集群周围的详细信息,验证任务完成,和复制数据
  • 4.2.3 大部分的计算发生在与在本地磁盘上,可以减少网络通信量数据的节点
  • 4.2.4 给定的任务完成后,将收集并减少了数据,以一个合适的结果发送回Hadoop服务器

  4.2 MapReduce计划分三个阶段执行,即映射阶段,shuffle阶段,并减少阶段。涉及到的角色:

  • 4.2.1 客户端(client):编写mapreduce程序,配置作业,提交作业,这就是程序员完成的工作;
  • 4.2.2 JobTracker:初始化作业,分配作业,与TaskTracker通信,协调整个作业的执行;
  • 4.2.3 TaskTracker:保持与JobTracker的通信,在分配的数据片段上执行Map或Reduce任务,TaskTracker和JobTracker的不同有个很重要的方面,就是在执行任务时候TaskTracker可以有n多个,JobTracker则只会有一个(JobTracker只能有一个就和hdfs里namenode一样存在单点故障,我会在后面的mapreduce的相关问题里讲到这个问题的)
  • 4.2.4 Hdfs:保存作业的数据、配置信息等等,最后的结果也是保存在hdfs上面
    • map阶段:映射或映射器的工作是处理输入数据。一般输入数据以存储在HDFS的文件或目录的形式,输入文件被传递到映射器功能线路,映射器处理该数据,并创建数据的若干小块。
    • reduce阶段:这个阶段是Shuffle阶段和Reduce阶段的组合。减速器的工作是处理该来自映射器中的数据。处理之后,它产生一组新的输出,这将被存储在HDFS。

5. Hive –  Hadoop的一个数据仓库工具

在使用了一段时间的 MapReduce 以后,发现 MapReduce 的程序写起来太麻烦。希望能够封装出一种更简单的方式去完成 MapReduce 程序,于是就有了 Pig 和 Hive。Pig 是以类似脚本的方式去描述 MapReduce,而 Hive 则是以 SQL 的方式。它们会自动把脚本或者 SQL 翻译成 MapReduce 程序,然后丢给计算引擎去计算处理。有了 Hive 以后人们发现 SQL 的优势太大了。一是容易写,一两行的 SQL 换成 MapReduce 可能要几十上百行。二是容易上手,即使非计算机背景的用户也可以很快的学会。三是易写易改,一看就懂,容易维护。所以自从 Hive 问世很快就成长为大数据仓库的核心技术。使用了一段时间的 Hive 后人们发现 Hive 运行在 MapReduce 上太慢了。于是有开发出了针对于 SQL 优化的技术 Impala,Drill 和 Presto 等。这些技术牺牲了系统的通用性和稳定性来提高 SQL 的效率,最终并没有流行起来。

Hive本质上就是数据库,用来存储数据,是构建Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。hive存储结构主要包括:数据库,文件,表,视图

用户接口主要有三个:CLI,JDBC/ODBC和 WebUI

  • CLI,即Shell命令行
  • JDBC/ODBC 是 Hive 的Java,与使用传统数据库JDBC的方式类似
  • WebGUI是通过浏览器访问 Hive

小结上面介绍的就是数据仓库的基本架构了,底层是 HDFS,上面运行的是 MapReduce/Tez/Spark,在往上封装的是 Pig 和 Hive。接下来延伸

6. Storm – 实时计算框架 

如果想要更快的计算速度,比如视频网站的热博榜,要求更新延迟在一分钟内,上面的任何一种手段都无法胜任。于是 Streaming(流)计算模型被开发出来了。Storm 是最流行的流计算平台。流处理的思路就是在数据进入系统的时候就进行处理,基本无延迟。缺点是不灵活,必须事先直到需要统计的数据,数据流过就没有了,没法进行补算。因此它是个好东西,但还是无法代替上述体系的。

7. HBase – 分布式的、面向列的开源数据库存储系统

HBase 是一个构建与 HDFS 的分布式,面向列的开源数据库存储系统。以 kv 对的方式存储数据并对存取操作做了优化,能够飞快的根据 key 获取绑定的数据。例如从几个 P 的数据中找身份证号只需要零点几秒。

8. flume  – 分布式的海量日志采集、聚合和传输的系统

它将各个服务器中的数据收集起来并送到指定的地方去比如说送到图中的HDFS,简单来说flume就是收集日志的。同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

flume的架构主要有一下几个核心概念:
Event:一个数据单元,带有一个可选的消息头
Flow:Event从源点到达目的点的迁移的抽象
Client:操作位于源点处的Event,将其发送到Flume Agent
Agent:一个独立的Flume进程,包含组件Source、Channel、Sink
Source:用来消费传递到该组件的Event
Channel:中转Event的一个临时存储,保存有Source组件传递过来的Event
Sink:从Channel中读取并移除Event,将Event传递到Flow Pipeline中的下一个Agent(如果有的话)

9. Spark – 内存计算框架

spark是开源的类hadoop mapreduce的通用的并行计算框架,spark基于mapreduce算法实现的分布式计算,拥有hadoop mapreduce所具有的有点,但不同于mapreduce的job中间输出和结果 可以保存在内存中,从而不在需要读写hdfs,因此spark更好的适用于数据挖掘与机器学习等需要迭代mapreduce的算法。和hadoop联合使用,增强hadoop性能,增加内存缓存,流数据处理,图数据处理等更为高级的数据处理能力

————————————————————————————————————————————————————

Zookeeper 是集群管理工具,Flume 是日志采集工具。除此之外还有需要定制的组件。比如:Oozie 是作业流调度系统,Sqoop 是 Hadoop 和数据库之间的导入导出工具,Mahout 是机器学习和推荐引擎,Nutch 是搜索引擎,

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 支持向量机非线性回归通用MATLAB程序解析 #### 一、概述 本文将详细介绍一个基于MATLAB的支持向量机(SVM)非线性回归的通用程序。该程序采用支持向量机方法来实现数据的非线性回归,并通过不同的核函数设置来适应不同类型的数据分布。此外,该程序还提供了数据预处理的方法,使得用户能够更加方便地应用此程序解决实际问题。 #### 二、核心功能与原理 ##### 1. 支持向量机(SVM) 支持向量机是一种监督学习模型,主要用于分类和回归分析。对于非线性回归任务,SVM通过引入核技巧(kernel trick)将原始低维空间中的非线性问题转换为高维空间中的线性问题,从而实现有效的非线性建模。 ##### 2. 核函数 核函数的选择直接影响到模型的性能。本程序内置了三种常用的核函数: - **线性核函数**:`K(x, y) = x'y` - **多项式核函数**:`K(x, y) = (x'y + 1)^d` - **径向基函数(RBF)**:`K(x, y) = exp(-γ|x - y|^2)` 其中RBF核函数被广泛应用于非线性问题中,因为它可以处理非常复杂的非线性关系。本程序默认使用的是RBF核函数,参数`D`用于控制高斯核函数的宽度。 ##### 3. 数据预处理 虽然程序本身没有直接涉及数据预处理的过程,但在实际应用中,对数据进行适当的预处理是非常重要的。常见的预处理步骤包括归一化、缺失值处理等。 ##### 4. 模型参数 - **Epsilon**: ε-insensitive loss function的ε值,控制回归带宽。 - **C**: 松弛变量的惩罚系数,控制模型复杂度与过拟合的风险之间的平衡。 #### 三、程序实现细节 ##### 1. 函数输入与输出 - **输入**: - `X`: 输入特征矩阵,维度为(n, l),其中n是特征数量,l是样本数量。 - `Y`: 目标值向量,长度为l。 - `Epsilon`: 回归带宽。 - `C`: 松弛变量的惩罚系数。 - `D`: RBF核函数的参数。 - **输出**: - `Alpha1`: 正的拉格朗日乘子向量。 - `Alpha2`: 负的拉格朗日乘子向量。 - `Alpha`: 拉格朗日乘子向量。 - `Flag`: 标记向量,表示每个样本的类型。 - `B`: 偏置项。 ##### 2. 核心代码解析 程序首先计算所有样本间的核矩阵`K`,然后构建二次规划问题并求解得到拉格朗日乘子向量。根据拉格朗日乘子的值确定支持向量,并计算偏置项`B`。 - **核矩阵计算**:采用RBF核函数,通过`exp(-(sum((xi-xj).^2)/D))`计算任意两个样本之间的相似度。 - **二次规划**:构建目标函数和约束条件,使用`quadprog`函数求解最小化问题。 - **支持向量识别**:根据拉格朗日乘子的大小判断每个样本是否为支持向量,并据此计算偏置项`B`。 #### 四、程序扩展与优化 - **多核函数支持**:可以通过增加更多的核函数选项,提高程序的灵活性。 - **自动调参**:实现参数自动选择的功能,例如通过交叉验证选择最优的`Epsilon`和`C`值。 - **并行计算**:利用MATLAB的并行计算工具箱加速计算过程,特别是当样本量很大时。 #### 五、应用场景 该程序适用于需要进行非线性回归预测的场景,如经济预测、天气预报等领域。通过调整核函数和参数,可以有效应对各种类型的非线性问题。 ### 总结 本程序提供了一个支持向量机非线性回归的完整实现框架,通过灵活的核函数设置和参数调整,能够有效地处理非线性问题。对于需要进行回归预测的应用场景,这是一个非常实用且强大的工具。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值