服务器存文件按照年月日存储,分布式存储下的块存储、对象存储、文件存储

原标题:分布式存储下的块存储、对象存储、文件存储

关于分布式存储,定义上的东西,我们已经说过很多,所谓分布式存储,它是一个存储系统的底层体系。因为在5G时代下,社会的存储需求呈几何级增大,任何单一的服务器所连接的物理介质和IO性能是无法独立承担的。

所以,多台服务器的协作,一起为多个系统提供存储服务需求应运而生,这就是分布式存储系统。

为了满足不同的市场需求,分布式存储系统可以同时提供文件存储、块存储和对象存储这三种形式的服务。

那么,文件存储、块存储和对象存储分别是什么意思呢?

块存储

在传统的存储系统中,由于是单一的存储服务器,我们上传和下载都是直接访问服务器的,例如把一份文件存储在U盘了,我们需要的时候直接访问U盘,那U盘就是存储数据的硬件介质。

硬件介质无法去改变内在存储的数据的组织方式和结构形态,所能做的就是按照固定的大小分块,并赋予每一块一个特定的编号。以硬盘为例,老式硬盘是512字节大小,新硬盘是4K字节大小。老式硬盘用柱面-磁头-扇区号组成的编号进行寻址,现代硬盘用一个逻辑块编号寻址。

e824178a693b0b79d1327e627e03bbaa.png

所以,硬盘往往又叫块设备,通常我们的块设备有两种类型:

1、 DAS:是直接连接于主机服务器的一种储存方式,每一台主机服务器有独立的储存设备,每台主机服务器的储存设备无法互通,通常用在单一网络环境下且数据交换量不大,性能要求不高的环境下。

2、SAN:是一种用高速(光纤)网络联接专业主机服务器的一种储存方式,此系统会位于主机群的后端,它使用高速I/O 联结方式,一般而言,SAN应用在对网络速度要求高、对数据的可靠性和安全性要求高、对数据共享的性能要求高的应用环境中,特点是代价高,性能好。

cd611b92dd3947206bc2f15b361b8253.png

文件存储

通常,NAS产品都是文件级存储。NAS(Network Attached Storage):是一套网络储存设备,通常是直接连在网络上并提供资料存取服务,一套 NAS 储存设备就如同一个提供数据文件服务的系统,特点是性价比高。

对象存储

对象存储同兼具SAN高速直接访问磁盘特点及NAS的分布式共享特点(扩展性)。核心是将数据读写和元数据分离,并且基于对象存储设备构建存储系统。每个对象存储设备具有一定的智能,能够自动管理其上的数据分布。

责任编辑:

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值