自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

长夜漫漫,无心睡眠

定有不足,还请指正

  • 博客(387)
  • 资源 (7)
  • 收藏
  • 关注

原创 项目实战之旅游网(二)后台用户管理(上)

在项目中,权限表的设计为用户-角色多对多,角色权限多对多,既一个用户有多个角色,一个角色有多个权限。开始实现后端的添加用户的代码,我们就不用在AdminMapper.java中添加接口了,因为MybatisPlus已经有新增借口了,所以,咱们直接在service层(AdminService.java)实现该功能即可。把上面那个admin_all.html里的那个新建按钮放在一个a标签里,实现点击新建就跳转到一个新增用户的界面,填完新用户信息之后,然呕点击保存,就会实现用户的新增。

2022-12-23 16:48:44 1053

原创 项目实战之旅游网(一)项目介绍 & 项目搭建

旅游网是一款常见的旅游网站,项目分为管理员端和用户端。管理员端(后台) 主要进行旅游产品的维护,用户端(前台)主要进行旅游产品的展示。

2022-12-22 12:20:36 1612

原创 Netron可视化Pytorch保存的网络模型

PyTorch中自带的torch.onnx模块包含将模型导出到ONNX IR格式的函数。这些模型可以被ONNX库加载,然后将它们转换成可在其他深度学习框架上运行的模型。当然不一定非要先保存了模型再转换,也可以训练完就用torch.onnx模块来保存模型为onnx格式的模型,到时候用到再说吧,先这样。netron会自动打开浏览器显式,然后一些操作也很简单,自己点吧点吧就明白了。

2022-12-08 15:11:57 1391

原创 带你玩转序列模型之Bleu得分&注意力模型&语音识别

目录一.Bleu得分二.注意力模型直观理解三.注意力模型四.语音识别五.触发字检测先跳过,等回头用得到了再来补。在本周大部分时间中,你都在使用这个编码解码的构架(a Encoder-Decoder architecture)来完成机器翻译。当你使用RNN读一个句子,于是另一个会输出一个句子。我们要对其做一些改变,称为注意力模型(the Attention Model),并且这会使它工作得更好。注意力模型或者说注意力这种思想(The attention algorithm, the attention ide

2022-12-04 16:11:08 430

原创 带你玩转序列模型之seq2seq模型&定向(集束)搜索

目录一.基础模型二.选择最可能的句子三.定向搜索四.改进定向搜索五.定向搜索的误差分析在这一周,你将会学习seq2seq(sequence to sequence)模型,从机器翻译到语音识别,它们都能起到很大的作用,从最基本的模型开始。之后你还会学习集束搜索(Beam search)和注意力模型(Attention Model),一直到最后的音频模型,比如语音。现在就开始吧,比如你想通过输入一个法语句子,比如这句 “Jane visite I'Afrique en septembre.”,将它翻译成一个英语

2022-12-04 14:12:23 699

原创 带你玩转序列模型之NLP与词嵌入(二)

目录一.Word2Vec二.负采样三.GloVe词向量四.情绪分类五.词嵌入除偏 在上个视频中你已经见到了如何学习一个神经语言模型来得到更好的词嵌入,在本视频中你会见到 Word2Vec算法,这是一种简单而且计算时更加高效的方式来学习这种类型的嵌入,让我们来看看。本视频中的大多数的想法来源于Tomas Mikolov,Kai Chen,Greg Corrado 和 Jeff Dean。(Mikolov T, Chen K, Corrado G, et al. Efficient Estimation of

2022-12-03 19:56:31 452

原创 带你玩转序列模型之NLP与词嵌入(一)

上完后面几节课,你会更明白,我们学习词嵌入则是有一个固定的词汇表,比如10000个单词,我们学习向量e_1到e_10000,学习一个固定的编码,每一个词汇表的单词的固定嵌入,这就是人脸识别与我们接下来几节视频要讨论的算法之间的一个不同之处。词嵌入能够达到这种效果,其中一个原因就是学习词嵌入的算法会考察非常大的文本集,也许是从网上找到的,这样你可以考察很大的数据集可以是1亿个单词,甚至达到100亿也都是合理的,大量的无标签的文本的训练集。通过考察大量的无标签文本,很多都是可以免费下载的,你可以发现。

2022-12-02 17:27:48 816

原创 带你玩转序列模型之循环神经网络(三)LSTM & BRNN & DRNN

上图是咱们之前的一个例子,当遍历到第三个单词Teddy时,仅凭前两个单词He said不足以判断这是否是人名的一部分,这是因为我们在此之前讲的模型,无论你用的单元是最基础的RNN单元还是GRU单元还是LSTM单元,整个序列模型都是单向RNN,所以后面的影响不到前面的。最后暑促先来看一下GRU和LSTM的对比,从公式可以看到LSTM中a^和c^已经不是一个东西了,然后LSTM有三个门,分别是更新门,遗忘门,输出门,最后输出的激活值是输出门和c^的乘积,其他的就不用说了。

2022-11-28 14:46:30 381

原创 带你玩转序列模型之循环神经网络(二)

,上半部分是已经训练好的模型,下面是我们调用模型生成新序列的过程,最开始给a^和x^都赋值为零向量,然后得到yhat^,和上一节讲的一样,时间步最后经过softmax之后可能得到10002个值,所以我们随机取样是在这10002个值里取样(可以用np.random.choice函数来取样得到yhat^),然后将yhat^作为下一个时间步的输入之一(还有激活值a^),以此类推,直到得到一个预测输出是或者时间步数超出了咱们设定的最长时间步数才停止。

2022-11-28 11:08:42 406

原创 带你玩转序列模型之循环神经网络(一)

先把序列的第一个元素x^输入网络,得到一个预测yhat^,并且在时间步1时还向后传送了一个激活值a^,然后再向这个神经网络输入序列的第二个元素x^,注意此时预测输出yhat^不是仅仅根据输入x^算出来的,是根据x^和时间步1传过来的a^一块算出来的,然后时间步2不仅输出了yhat^,还往下一步输出了时间步2得到的激活值a^,后面依此类推,直到最后一个元素输入网络得到一个yhat^。左边的输入部分是编码器,右边的输出部分是解码器。

2022-11-27 17:27:26 864

原创 pytorch入门强化教程——保存和加载模型

在PyTorch中,模型的可学习参数(即权重和偏差)包含在模型的参数中,(使用可以进行访问)。state_dict是Python字典对象,它将每一层映射到其参数张量。注意,只有具有可学习参数的层(如卷积层,线性层等)的模型才具有state_dict这一项。目标优化也有state_dict属性,它包含有关优化器的状态信息,以及使用的超参数。因为state_dict的对象是Python字典,所以它们可以很容易的保存、更新、修改和恢复,为PyTorch模型和优化器添加了大量模块。下面通过从简单模型训练一个。

2022-11-27 10:46:16 1521

原创 pytorch入门强化教程——迁移学习

实际中,基本没有人会从零开始(随机初始化)训练一个完整的卷积网络,因为相对于网络,很难得到一个足够大的数据集[网络很深, 需要足够大数据集]。通常的做法是在一个很大的数据集上进行预训练得到卷积网络ConvNet, 然后将这个ConvNet的参数作为目标任务的初始化参数或者固定这些参数。

2022-11-26 21:20:50 526

原创 pytorch入门强化教程——小试牛刀

在底层,每一个原始的自动求导运算实际上是两个在Tensor上运行的函数。其中,

2022-11-26 18:54:07 311

原创 pytorch入门强化教程——数据加载和处理

下载数据集, 数据存于“data / faces /”的目录中。这个数据集实际上是imagenet数据集标注为face的图片当中在 dlib 面部检测 (dlib’s pose estimation) 表现良好的图片。我们要处理的是一个面部姿态的数据集。在这篇教程中我们学习了如何构造和使用数据集类(datasets),转换(transforms)和数据加载器(dataloader)。包提供了 常用的数据集类(datasets)和转换(transforms)。中还有一个更常用的数据集类。

2022-11-26 14:37:26 547

原创 Pytorch初体验(五)官方60min入门教程之数据并行处理

请注意,只是调用 my_tensor.to(device) 返回一个 my_tensor 新的复制在GPU上,而不是重写 my_tensor。通过使用 DataParallel 让你的模型并行运行,你可以很容易的在多 GPU 上运行你的操作。当每一个模型都完成自己的任务之后,DataParallel 收集并且合并这些结果,然后再返回给你。不过有一个问题,我电脑上有俩gpu,但是只能检测到英伟达的那个显卡,英特尔的那个本来电脑默认优先使用的显卡却检测不到,就先这样吧。

2022-11-25 13:16:56 185

原创 Pytorch初体验(四)官方60min入门教程之图像分类器

你已经了解了如何定义神经网络,计算损失值和网络里权重的更新。

2022-11-25 10:35:38 900

原创 Pytorch初体验(三)官方60min入门教程之神经网络

现在对于自动梯度(autograd)有一些了解,神经网络是基于自动梯度 (autograd)来定义一些模型。一个 nn.Module 包括层和一个方法 forward(input) 它会返回输出(output)。这是一个简单的前馈神经网络,它接收输入,让输入一个接着一个的通过一些层,最后给出输出。神经网络可以通过 torch.nn 包来构建。

2022-11-24 17:19:55 149

原创 Pytorch初体验(二)官方60min入门教程之自动微分

autograd 包是 PyTorch 中所有神经网络的核心。首先让我们简要地介绍它,然后我们将会去训练我们的第一个神经网络。该 autograd 软件包为 Tensors 上的所有操作提供自动微分。它是一个由运行定义的框架,这意味着以代码运行方式定义你的后向传播,并且每次迭代都可以不同。我们从 tensor 和 gradients 来举一些例子。1、TENSORtorch.Tensor 是包的核心类。

2022-11-24 15:51:33 493

原创 Pytorch初体验(一)官方60min入门教程之张量

前几天结束了机器学习的入门,难点不多,很多东西更像是为学深度学习打基础,然后这几天在学深度学习,刚开始基本还是机器学习学过的基础东西,到了后面各种算法的公式推导和底层原理,加之自己的状态不是很好(最近还是感觉蛮空虚的哈哈哈) ,所以根本学不进去(难点就是这样,少有分心便要听不懂了),所以我直接跳过了大部分的公式推导,不求甚解(现在才知道第一遍学的时候应当如此),大概了解算法的基本原理和干什么的就行,然后我迷迷糊糊看了几天吴恩达老师的深度学习的课之后,就开始学pytorch了,先敲起来,用实践带动理,后面用到

2022-11-24 13:53:16 233

原创 向毕业妥协系列之深度学习笔记(三)DL的实用层面(上)

本篇文章大部分又是在ML中学过的,除了。

2022-11-20 10:47:42 413

原创 向毕业妥协系列之深度学习笔记(二)深层神经网络

我们都知道深度神经网络能解决好多问题,其实并不需要很大的神经网络,但是得有深度,得有比较多的隐藏层。为什么直接去看深度学习笔记吧。时间紧任务重不多说。

2022-11-19 22:59:50 431

原创 向毕业妥协系列之深度学习笔记(一)浅层神经网络

目录一.神经网络杂记二.计算图(反向传播求导的几个实例)1.普通式子反向传播求导2.逻辑回归中的梯度下降3.m个样本的梯度下降三.向量化四.python广播五.激活函数六.随机初始化深度学习系列的文章也可以结合下面的笔记来看:深度学习笔记-目录这个系列的学习和机器学习系列的课程有很多重复的部分,尤其是神经网络的一些基础知识,以及什么回归等知识,所以很多东西如果我机器学习的文章当中有的话,我就略过了或者简单提一嘴。(可能有很多不同的内容,但是大部分已经在机器学习学过了,故而将本节取名为杂记)可以看一下我的机器

2022-11-19 00:32:38 579

原创 向毕业妥协系列之机器学习笔记:无监督学习-推荐系统之协同过滤

左侧是电影名,上侧是用户名,然后右下侧是用户给电影的评分,最右侧是每个电影的特征(是的,特征也有评分,比如romance=0.1代表有一点小浪漫,romance=0.99代表非常浪漫,等于0就是和浪漫不沾边,即浪漫的程度)这里假设给定参数w和b,和之前的线性回归恰恰相反,咱们之前是给定x,需要建立模型来推导w和,但是咱们是假设有了w和b,建立模型来推x,也就是如下图所示,x_1和x_2都是未知的。a few代表一些,表肯定。

2022-11-17 17:52:21 450

原创 向毕业妥协系列之机器学习笔记:无监督学习-异常检测

另外,对于很多技术公司可能会遇到的一些问题,通常来说,正样本的数量很少,甚至有时候是0,也就是说,出现了太多没见过的不同的异常类型,那么对于这些问题,通常应该使用的算法就是异常检测算法。下图的例子是飞机发动机的制造,有很多特征,我们为了方便讲解取其中的两个特征:发动机产生的热量和震动强度,然后数据集是m个(发动机,每个发动机有两个特征),我们这个异常检测的问题就是测试新的数据和原来的数据是否相似,可以看到下图的坐标轴图像的示例 ,有一个合格的示例,也有一个异常的示例。的值来告诉我们数据是否真的是异常的。

2022-11-16 17:31:25 858 2

原创 向毕业妥协系列之机器学习笔记:无监督学习-聚类

将开始介绍聚类算法。这将是一个激动人心的时刻,因为这是我们学习的第一个非监督学习算法。我们将要让计算机学习无标签数据,而不是此前的标签数据。那么,什么是非监督学习呢?在课程的一开始,我曾简单的介绍过非监督学习,然而,我们还是有必要将其与监督学习做一下比较。在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,在这里的监督学习中,我们有一系列标签,我们需要据此拟合一个假设函数。

2022-11-15 22:17:10 421

原创 向毕业妥协系列之机器学习笔记:决策树(三)

使用单个决策树的缺点:单个的决策树对于数据的改变非常敏感,比如咱们之前的例子中一直把耳朵形状选择为根节点的特征,但是你可能改变某个猫的某些特征,这样虽然只是改变了十只猫中的一只,但是也会影响决策过程,根节点选择的特征就会改变,这就是一棵新的决策树了。和之前不一样的地方就是当每一轮生成新的训练集时,不是有放回随机选取10个了,即每个训练示例不是等概率选取了,比如在本轮前面的决策树预测时把训练示例A分类错了,那么本轮生成新的训练示例时选取标签A的概率更大一些。关于k的取值,一般有n个特征时,k是取根号下n。

2022-11-14 14:29:37 475

原创 向毕业妥协系列之机器学习笔记:决策树(二)

其实就是取阈值,比如我们先取第一个阈值为8(一般是先取所有这个连续特征值的中位数),左上角的函数图像横轴是体重,纵轴是代表是不是猫(即0或1),然后显然图中是猫的点都在上侧,不是猫的点都在下侧,咱们先取了8,看到图中的蓝线,蓝线左侧有两个点(都是猫),蓝线右侧有8个点(3猫5狗),然后咱们按照上篇文章讲的计算熵的方式计算这个阈值分割之后的信息增益(初试状态还是10个动物,5猫5狗)。现在的例子如下图,还是最初的那三个特征,这些是输入数据,而最后一列是体重,即我们要根据前面的三个特征来预测这个动物的体重。

2022-11-14 09:59:34 350

原创 向毕业妥协系列之机器学习笔记:决策树(一)

5/10*H(0.8)+5/10*H(0.8),然后我们要知道用这个特征来分类让熵减少了多少,就要知道根结点最初状态的熵是多少,初始状态是十个动物(5猫5狗),所以p1=5/10=0.5,熵是H(0.5)=1然年后用最初始状态的熵减去分类一次之后的加权平均熵得到信息增益(即熵减少了多少),然后另外两个特征也是如法炮制,可以得到三个特征如果被选择进行分类那么各自会得到的信息增益是0.28,0.03,0.12,咱们要选信息增益最大的(即熵减少最多的),即耳朵形状特征。这也是为什么两只猫时比三只猫时的熵要小。

2022-11-13 16:23:40 632

原创 向毕业妥协系列之机器学习笔记:构建ML系统(四)

这时,误差的大小是不能视为评判算法效果的依据的。精确率和召回率两者是此起彼伏的关系,因为如果精确率高,即预测时的阈值设置得高,假如阈值设置为0.9,大于0.9时才认为这个病人患病,那么检测出来这个病人真正患病的要求就很高,意味着就会有更多的真正的患病的人被检测不出来(预测概率小于0.9),又因为很多真正患病的人没被检测出来,所以true positive就会变小,所以召回率就会小,所以精确率和召回率就是这个大,那个就小的关系。例,在所有我们预测有恶性肿瘤的病人中,实际上有恶性肿瘤的病人的百分比,越高越好。

2022-11-13 10:57:38 449

原创 向毕业妥协系列之机器学习笔记:构建ML系统(三)

然后咱们现在要构建手写数字识别的模型,看到上图下面那个模型,也是五层的神经网络,前四层咱们直接把上面的那个模型已经训练好的前四层的参数直接拿过来用,然后现在是识别0~9,所以输出层有10个神经元,现在咱们只需要训练下面的这个模型的输出层的参数即可,前四层就不用训练了(因为直接借用了上面模型的前四层参数)。如上图,结合英文看,右侧是一封电子邮件,咱们从英语字典里把最常用的10000个单词取出来,然后输入数据就是一个有10000个特征的向量,遍历邮件,出现了哪个单词,单词在x中的对应位置就置为1。

2022-11-12 21:32:24 400

原创 向毕业妥协系列之机器学习笔记:构建ML系统(二)

正则化。

2022-11-12 15:56:54 387

原创 向毕业妥协系列之机器学习笔记:构建ML系统(一)

下面的例子是模型的选择,对于一个问题,这个问题的f可能有多种不同的选择,下面列出了10种,分别对应d=1~10,分别是一阶到10阶的多项式,这些放到训练集当中都能得到对应的参数,然后利用这些参数去进行测试集上的测试,然后比如发现当d为5的时候(即五阶多项式)Jtest最小,这就能说明我们这个问题应当选择d为5对应的式子作为模型公式吗?下图和之前学过的模型选择是一个道理,多个lambda值,分别训练出对应的w,b的值,然用验证集计算出Jcv,选择最小的那个Jcv对应的lambda,然后再用测试集测试。

2022-11-12 12:55:18 479

原创 RabbitMQ手把手教程(一)概念

比如系统一把给系统二发消息先放到消息队列那里,让它帮助转发,系统一就可以走了,去干别的事了,不用一直在这等待系统二回消息。以生产报纸为例,生产者就相当于报纸的印刷单位,印刷完了把报纸交给报社,交换机就相当于报社,报社再把相应的报纸交给相应的邮递员,队列就相当于邮递员,邮递员再把报纸送到用户(消费者)手里。因为订单系统和最右边那几个系统交互信息,假如库存系统崩了,那么订单系统发出的消息迟迟得不到回复,就会造成整个系统的崩溃。用来接收生产者发送的消息,并根据分发规则,将这些消息分发给服务器中的队列中。

2022-11-12 11:15:26 841

原创 向毕业妥协系列之机器学习笔记:神经网络(五)Tensorflow实现(下)

梯度下降是广泛应用于机器学习的算法,如回归和分类,神经网络等,但是还有一些方法比梯度下降更好比如adam,这种方法可以自动调节学习率alpha的大小,如左图,步长有点小,那么adam算法就会自动把学习率放大,又如右图,最开始步长有点大,来回震荡,那么adam算法就会自动把步长变小。卷积层就是每个神经元只对上一层输入的部分数据进行计算,而不会计算全部,这加快了计算速度,而且使用更少的训练数据,而且不太容易过拟合。除了我们之前学过的输入层,隐藏层和输出层,其实神经网络还有其他类型的的层。

2022-11-12 08:53:02 131

原创 向毕业妥协系列之机器学习笔记:神经网络(四)Tensorflow实现(中)多分类问题

可以看到左侧的算法当y代入0或1的时候,会发现其实和右边的loss定义是一个道理(注意看吴老师的蓝色和红色的批注),所以Softmax回归其实是逻辑回归的泛化。先来一个jupyter notebook的例子,可以看到在数学上的两个结果相同的表达式在计算机中却输出不一样,下面的方法就可以提高运算的精度。上面是一个新的问题,比如一个自动驾驶系统,可能要在一张图片里识别出有无汽车,公共汽车,行人,那么此时的y就是一个有三个分量的向量。上图左侧是逻辑回归的损失函数的算法,右侧是Softmax回归的损失函数的算法。

2022-11-11 23:39:02 595

原创 向毕业妥协系列之机器学习笔记:神经网络(三)Tensorflow实现(上)

像下面的例子,左侧那个神经网路模型,输入层就是一个数字x,然后后面有两个隐藏层,每个隐藏层里都只有一个神经元,看右侧的公式推导,最后的输出值还是个线性函数的输出,所以就印证了咱们上面说的那句话(无法去拟合比线性回归模型更复杂的东西)如果面对回归问题,那么有不同的选择,如果是预测明天的股票如何变化的话,那么通常会选择线性激活函数,因为股票的涨跌对应着数值的正负,而线性激活函数正好允许正值和负值的存在。上面那个例子如果用线性激活函数的话,那么就会达不到神经网络的要求,无法去拟合比线性回归模型更复杂的东西。

2022-11-10 22:44:04 335

原创 Pycharm2022配置conda虚拟环境中的解释器

点击红框处,然后点击Add Local Intecepter。然后等待一会就设置好了,Apply即可。选择Exsiting,然后再配置解释器。

2022-11-10 10:09:24 1982

原创 Pytorch 亲妈级安装教程(GPU or CPU版本)

pytorch这玩意安装时自带cuda和cudnn(这可比tensorflow安装时方便多了),我要是在anaconda的虚拟环境里安装的话,那这个的版本选择应该还会受限于电脑显卡驱动版本的影响吧,我的cuda和cudnn是本科的时候装的,有点老了,10.0的,我看官网,cuda10.0对应pytorch是1.2.0,现在都1.13了,差的有点多;首先就是咱们需要确定下CPU还是GPU版本,那毋庸置疑,都玩这玩意了,CPU版本dog都不下!(开玩笑呢哈哈哈,如果你想下CPU版的也行,安装过程也简单)

2022-11-09 19:32:49 4077 8

原创 向毕业妥协系列之机器学习笔记:高级学习算法-神经网络(二)

下图是模型的图示以及左下角是tensorflow的实现代码,Dense就是神经网络的一层,其中参数units是该层神经元的个数,activation是用哪个激活函数,返回值是一个函数(是的,函数也可以作为一个返回值),然后在该函数下传入输入值,即可逐步得到最后的预测概率,结合之前学的东西,真的很好理解!在网上有看到一种说法DL是特征提取。原因一是我们构建的神经元(逻辑回归单元)比起我们大脑的任何一个神经元都很简单,原因二是直到今日,我们几乎不知道大脑是如何工作的,还谈何构建一个模拟我们大脑运作的模型了呢。

2022-11-09 13:43:57 318

原创 向毕业妥协系列之机器学习笔记:高级学习算法-神经网络(一)

在这门课中,我将向你们介绍神经网络。然后影响一件T-shirt是否成为畅销品的有如下几个因素,一是顾客对于这件T恤的承担能力(即对于顾客来说这件T恤是贵了还是买的起),二是顾客对于这件T恤的认知程度,三是顾客对于这款衣服的质量的认知程度。看到右下角的第一层输出的激活值的计算公式,可以看到是个25行1列的列向量,因为第一个隐藏层有25个神经元,所以w,就得有25个小分量,b也同理。右下角是一个简单的神经元示例,这个神经元由输入(一个或多个数),有一个或多个输出,输出的就是那个f(x),输出是概率。

2022-11-09 08:08:03 279

Blob类型数据讲解会用到的数据库

Blob类型数据讲解会用到的数据库

2022-01-29

本文章中会用到的数据库

本文章中会用到的数据库

2022-01-28

Statement学习中用到的一张表

Statement学习中用到的一张表

2022-01-27

本篇文章中提到的导入的数据库,供后续操作练习使用

本篇文章中提到的导入的数据库,供后续操作练习使用

2022-01-23

animation.mp4

pyqt5异形窗口动画

2021-02-17

qwebchannel.js

pyqt5的web学习的一个文件

2021-02-11

NativeIO.java

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算 [1] 。

2020-05-26

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除