[转]"80后"研制出世界最快硬盘:传输速度每秒1.5GB

传输速度每秒1.5GB,仅需3秒就能传输一张DVD光盘的数据,是普通硬盘速度的15倍。一秒钟可以访问31万次,而普通硬盘仅可以访问16次。这些数据,描绘着一款固态硬盘的卓越性能。研发出这款世界传输速度最快、性能最好的固态硬盘的,是两个“80后”——殷雪冰和他的大学同学路向峰。

 
殷雪冰(左)和路向峰(右)正在对他们共同设计的设备进行调试。记者 方非摄 

   无心发现“新天地

  2007年,殷雪冰在中科院光电研究院工作时,院里有一个航拍测绘的项目,需要一个大容量硬盘来存储数据,但传统硬盘太重并且容易受震动出现故障。不得已,他们买了一个进口固态硬盘。

  固态硬盘是存储领域最尖端的技术,与传统硬盘采用机械结构不同,固态硬盘性能好于传统硬盘,但价格也相当昂贵——容量为32GB的一块固态硬盘,价格要5000元,而一个体积要小很多的32GB U盘,仅需100多元。

  怎么那么贵?这让殷雪冰很惊讶。

  殷雪冰翻阅了很多资料,发现全球能生产固态硬盘的生产商寥寥无几。另一个尴尬的数据显示,近十年来,CPU和内存的性能提高了100多倍,但硬盘的性能只提高了两倍。“整个数据处理的瓶颈,就在硬盘上。”殷雪冰说,只要能打通这个瓶颈,信息传输就走上了“高速公路”。

  想到这儿,殷雪冰的内心不由汹涌澎湃。这个无心的发现,让他一直心存的梦想和现实接上了头。

  有瓶颈需要打通,这不正好让自己“以技术改变世界”的理想有了用武之地吗?

  搞光电的人要去搞固态硬盘,看起来有点风马牛不相及。不过,殷雪冰绝不是一时头脑发热。“我的数理化成绩一直很好,高中就开始编程,本科学的是物理, 硕士是工科。”殷雪冰说,固态硬盘融合了电子信息、计算机、芯片设计、数学、物理等多门学科,属于交叉学科,正好能用上他以前的知识储备。

  和方便面相伴四年

  说干就干,殷雪冰找来好朋友路向峰。白天,他们分别在中科院和微软亚洲研究院工作,下班后就集合到9平方米的宿舍内做起实验来。

  很快,殷雪冰就发现,他们最初的想法过于乐观了,实验迟迟没有取得突破。“固态硬盘,储存介质都是用U盘的模式,核心和难点就在于算法和架构。”殷雪 冰举例说,信息存储要求有一个纠错功能,因此需要多存储一些校验码,以便恢复和纠正错误。除了纠错的功能,还需要防止芯片损坏技术等多达十多套核心的算 法。

  做还是不做?两个怀抱梦想的人决定继续,并且决定辞掉高薪的工作,专心致志做研发。接下来的两年,在殷雪冰看来,是一段“暗无天日”的日子——每天基 本都呆在屋子里做些代码、做实验,一箱箱方便面堆在屋里,是他们的主要口粮。2011年,历经4年,他们终于研发成功了固态硬盘。用第三方权威测试软件测 试的结果显示,产品的传输速度、随机访问速度和响应速度都比美国一家全球最大的固态硬盘生产商先进,综合性能是竞争对手的三倍以上。

   4厘米,3万元

  在殷雪冰位于上地的忆恒创源科技公司内,记者见到了这款固态硬盘产品。外形和传统硬盘差不多大,不过固态硬盘的表面没有传统硬盘那么光滑,而是布满了电路板,上面镶嵌着64块黑色的小方块,这是储存单元,每一块容量有16GB,加起来硬盘容量有1024GB。

  在电路板的内壁,有一块4厘米见方的芯片。殷雪冰说,这块芯片融合了10多套算法和架构,是固态硬盘的大脑,也是忆恒创源核心技术的体现。这样一块硬盘,虽然价格高达3万元,却可以使原来要依靠五台服务器才能完成的任务,现在在一台服务器上就能完成。

  有了技术的积累,融资和市场都进行得很顺利。去年年底,忆恒创源获得中关村创投、英飞尼迪共2000万元的投资,目前该产品已被人人网、奇虎360、优酷网、乐视网、支付宝、完美世界、中科院等采购。

  下个月,忆恒创源将搬到楼上的一处办公场地,面积将近200平方米,是现在的两倍。殷雪冰说,上网买火车票、“双11”淘宝抢购、刷微博都需要高性能的存储设备,在大数据的时代,固态硬盘的市场价值不言而喻。


http://www.cnbeta.com/articles/216637.htm

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值