笑傲亿亿次:日本“京”轻松蝉联超级计算机No.1

TOP500.org组织本周公布了第38届全球超级计算机五百强排行榜,升级完毕的日本“京”(K Computer)轻松蝉联桂冠,这也是人类历史上第一台计算能力跨越1亿亿次每秒的计算系统。

半年前,只建设完成一部分的“京”就轻而易举地将日本带上了超级计算机新王者的宝座,当时的最大性能为8.162千万亿次浮点计算每秒。不同于其它近来表现“猖狂”的高性能计算系统,“京”仍旧完全基于传统处理器,没有使用GPU加速。

现在的“京”配备了88128颗富士通SPARC64 VIIIfx 2.0GHz八核心处理器,核心总量705024个,最大计算性能1.051PFlops(10.51亿亿次每秒),峰值性能1.128038PFlops(11.28亿亿次每秒),有效率高达93.2%,同时总功耗为12659.9千瓦。

中国的“天河一号A”依然位列亚军,性能上完全不变,最大性能只有“京”的24.4%。事实上,除了一路狂奔的“京”之外,从第二名到到第十一名都没有丝毫变化。这种沉寂在高性能计算历史上实属罕见,TOP500总编辑Erich Strohmaier也表示:“自从1993年我们第一次发布(超算)排行榜以来,这是第一次前十名纹丝不动。”

新榜单的其他一些变化:

1、中国超算数量从62台大幅增至74台,稳居第二名,身后是日本30台、英国27台、法国23台、德国20台。

2、使用GPU加速的超算从17台猛增至39台,其中35台使用NVIDIA Tesla计算卡、2台使用Cell处理器、2台使用AMD Radeon显卡。

3、使用六核心及以上处理器的系统已经占据62%的份额。

4、Intel处理器所占份额虽然丢掉了0.6个百分点,但依然以76.8%高居第一,总计384台。AMD Opteron目前占据63台,也减少了3台。IBM处理器稳定在49台。

5、凭借“京”的出色表现,富士通在厂商性能方面小幅超过了Cray,但距离IBM依然还很远。

6、千兆以太网是最流行的内部互联技术,占据223台但比去年少了7台。InfiniBand系统从208台增至213台。从性能上看,InfiniBand系统的性能几乎是千兆以太网系统的两倍多,分别为28.7PFlops、14.2PFlops。

7、供应商方面,IBM 223台、惠普140台,分别比半年前增加5台、减少6台。

8、第500名的性能从半年前的39.1TFlops升至50.9TFlops。今年的最后一名半年前可排第305。所有系统总性能从一年前的43.7PFlops、半年前的58.7PFlops增加到74.2PFlops。

再看看功耗方面:

1、29台超算的功耗超过了1000千瓦。

2、“京”的功耗是最高的,12659.9千瓦,不过因为性能更彪悍,能耗比其实是最高的之一,达到了830MFlops/W。

3、能耗比最高的是蓝色基因/Q,2029MFlops/W。

4、所有系统平均能耗比282MFlops/W,比半年前、一年前提高了13.7%、28.8%。

5、前十名平均功耗45.6千瓦,比半年前增加了2.6千瓦,而能耗比维持464MFlops/W不变。

完整榜单:

http://www.top500.org/list/2011/11/100

http://cloud.csdn.net/a/20111116/307545.html



深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值