oracle 支持ltfs的厂商_磁带归来(但磁带曾经消失过吗?)

过去的一年里你读过多少以这样的语句开头的文章“与报道所说的不同,磁带并没有消亡”?读过很多是吧?在总是纠结在磁带是否已死这件事之中而感到乏味之外,你是否也在考虑究竟是谁最先宣布磁带已死的信息?

不要看我,我不反对磁带。虽然做媒体的总爱紧盯最新、最热门的技术,但我想一定是做去重、虚拟带库(VTL)和硬盘备份的厂商希望给磁带画上一个句号。Data Domain不就曾经在贸易展上打出“Tape Sucks, Move On”的横幅?而把VTL厂商Sepaton的英文名从右向左读,不就是“no tapes(无磁带)”吗!

不管怎么样,如果磁带真正消亡,拖延的时间恐怕要比西班牙佛朗哥的时间要长。(译者注:当年,关于佛朗哥是死是活的消息长期占据美国各大媒体的头版头条。“Generalissimo Francisco Franco is still dead(佛朗哥还死着呢)”也成了当时的流行语。)

但是,磁带并没有消亡。事实上,磁带正在被改变,被发展,被赋予新的任务,这些甚至比它的克星硬盘来的更快。仅以磁带容量为例。Oracle最近推出的T10000磁带驱动——C——容量为5TB。这5TB指的是未压缩容量,T10000C超过了LTO-5的1.5 TB (3 TB压缩) 容量。在2005年10月,一款5TB的磁带产品是不可想象的。T10000的容量只有500 GB,而仅仅五年多的时间,容量增长了十倍。虽然3TB的磁盘已经问世,而硬盘驱动(HDD)技术也在同样的时间里有了十倍的增长,但磁带仍然是容量的老大。

我们所做的采购意向调查也展示了磁带在过去几年中的发展历程。最大的变化是企业减少了磁带方面的投入。如果我们回到四年前,约有33%的受访者称将提高在磁带方面的投入,24%的受访者称会减少对磁带的投入。但时至今日,这些数字正好反过来了,34%的受访者计划削减磁带方面的开支。许多企业将磁盘作为备份选择的做法也不足为奇。我们的调查也表明了IT部门在购买新的磁带库时会选择更少的槽位,2006年的平均购买槽位为159个,而现在的平均数为92个,下降了42%,但与此同时,硬盘容量增加了数倍。

诚然,硬盘削弱了磁带的应用,但磁带技术本身也使得这种弱势更明显。但根据我们最近所做的调查,77%的企业将全部或部分数据在磁带上做一个备份。只不过今天磁带的需求量比从前少了。

备份可能不是磁带未来最重要的角色。最近几年,两个其他热起来的领域恰好催热了磁带的应用。一个是媒体和娱乐行业,尤其是影视制作。数字电影需要大量的存储空间来保存原始脚本,以便进一步编辑制作成商业产品。全美数百家大大小小的电视台也需要大量的空间来存储多年来有价值的脚本。从许多层面上来看,这些媒体公司将磁带作为一个非主要存储层,这里会存储大型文件,直到需要查看某个文件时,该文件才被转回硬盘。磁带是非常适合做这件事的,因为它容量大、携带方便并且操作费用低。(恩,这些原因不正是磁带在备份领域成为老大的原因吗?)最近,其他需要存储大文件的行业,如基因研究、勘探和医疗行业也从磁带这里看到了曙光。

可能磁带的最大应用应该是它的一个老行当——归档,磁带的这个应用最近在IT部门重新被重视,主要是因为IT部门要解决大量的新数据,同时要清理数据存储系统以便更好的应用。磁带在归档架构中是很有意义的,大量的数据方便查阅,但速度可能不会象主存储那样快。

这些应用并不是新的,但由于磁带容量和吞吐量的增加已经变得更加可行。算得上是近十年来磁带技术的最重大的新进展可以说多年以来一直未受重视,直到最近出现。由IBM等厂商创建的LTO技术联盟提出的线性磁带文件系统(LTFS)会使得磁带断然不会是——硬盘。但看起来到真有点象硬盘技术。

LTFS使用LTO-5的分区功能来将磁带中的内容存储成为一个独立的分层文件系统索引。这使得磁带在拥有文件系统后看起来很象硬盘。事实上,NAS存储应用能够很容易的与拥有LTFS功能的磁带挂钩。作为LTO-5的附加应用,用户可以免费从IBM获得LTFS这款客户端软件。有了这款软件,当你登陆应用LTFS的LTO-5磁带时,就可以浏览检索,从磁带中拖拽或存储特定的文件。

进一步说,如果备份应用厂商决定接受LTFS界面,磁带就能够在不同备份应用中互换。换句话说,你能够在第二天用另外一个应用替换掉你当前的应用,并且能够很容易的查到你采用之前的备份应用存储的所有数据。这种可互换性令许多备份厂商很紧张,所以你不会看到他们马上支持LTFS,但归档厂商却愿意支持这项应用,发挥LTFS的长处。

所以,如果磁带消亡,对饱受困扰的硬盘和备份厂商一定是件好事!

我们一直都在努力坚持原创.......请不要一声不吭,就悄悄拿走。

我原创,你原创,我们的内容世界才会更加精彩!

【所有原创内容版权均属TechTarget,欢迎大家转发分享。但未经授权,严禁任何媒体(平面媒体、网络媒体、自媒体等)以及微信公众号复制、转载、摘编或以其他方式进行使用。】

微信公众号

TechTarget

官方微博

TechTarget中国

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值