自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(72)
  • 收藏
  • 关注

原创 2024年9月25日,Intel发布至强6900P系列:128核心504MB缓存,终于追上AMD!

同时,能效更高,40%典型服务器利用率时,能效比是上代的2倍。至强6980P:128核心256线程,三级缓存504MB,基准频率2.0GHz,全核频率3.2GHz,加速频率3.9GHz,热设计功耗500W。至强6979P:120核心240线程,三级缓存504MB,基准频率2.1GHz,全核频率3.2GHz,加速频率3.9GHz,热设计功耗500W。至强6952P:96核心192线程,三级缓存480MB,基准频率2.1GHz,全核频率3.2GHz,加速频率3.9GHz,热设计功耗480W。

2024-09-28 20:56:39 694

原创 英伟达新显卡RTX 5090和5080曝光,性能差距惊人!涨价已成定局?

同时,RTX 5080 还将配备 16GB 的 GDDR7 显存,运行在 256-bit 的总线接口上,内存带宽预计在 896 GB/s 到 1024 GB/s 之间。这款显卡的总功耗为 400W,相比之前的配置有所上升。显存规格:RTX 5080将配备16GB的GDDR7显存,运行在256-bit的总线接口上,内存带宽预计在896 GB/s到1024 GB/s之间。从曝光的信息来看,这两款显卡都采用了先进的 PCB 设计,并配备了最新的 GB202-300-A1 GPU 核心。

2024-09-28 00:16:47 909

原创 NVIDIA 的 Blackwell 架构:解析 B100、B200 和 GB200

对于 FP6/FP8 张量运算,在精度和速度之间取得平衡,B200 分别记录了密集/稀疏活动的 4.5/9 PFLOPS。B200 在精密任务中表现出色,密集/稀疏 FP16/BF16 张量为 2.25/4.5 PFLOPS,密集/稀疏 TF32 张量为 1.2/2.25 PFLOPS,适用于各种科学和机器学习应用。在更高精度要求下,B100 的 FP16/BF16 张量在密集/稀疏计算中以 1.8/3.5 PFLOPS 运行,TF32 张量以 0.9/1.8 PFLOPS 运行,支持一系列精确计算任务。

2024-09-27 14:29:22 1198

原创 高性能计算秘密武器:NVIDIA B100与B200如何让你的HPC性能飙升?

想象一下,你的科研服务器挣脱了传统PCIe接口的束缚,拥抱了NVIDIA的SXM架构。而 SXM 架构其实并不算 "新鲜玩意",在 NVIDIA 的每一代企业级计算产品中都是有 SXM 形态的,比如 P100、V100、A100、H100。此外,由于SXM没有板卡外壳,不依赖于PCIe卡槽,相同体积的机箱可以容纳更多的计算卡,从而显著提升计算卡的布置密度。嘿,各位科技界的狂热粉丝、AI领域的探索先锋,你们是否正站在高性能计算(HPC)的十字路口,寻找那把能开启全新纪元的钥匙?

2024-09-27 12:10:02 898

转载 显卡品牌排名,显卡型号的区别划分大解析:一线至小众,选卡不再迷茫

七彩虹、影驰、索泰等品牌凭借出色的性价比和独特的产品特色,在市场上赢得了不少消费者的青睐。华硕、技嘉、微星作为老牌显卡厂商,拥有深厚的研发实力和品牌影响力,其显卡产品在游戏、设计等领域都有广泛应用。今天这篇文章就聊一聊显卡的品牌和型号,大家可以看看自己想买的显卡品牌型号属于哪个档次,购买时可以用作参考。除了NVIDIA官方列出的,这里加入了丽台、梅捷、昂达、必恩威,丽台是专门做专业卡的厂商,不过偶尔也会做一些游戏卡,昂达和梅捷知名度不高,但也不是杂牌,必恩威是北美品牌,最近也开始在国内卖了。

2024-09-25 20:32:35 98

原创 英伟达RTX 4090即将在10月份停产,RTX 50震撼来袭,你准备好了吗?

RTX 50系列的到来,不仅是英伟达的一次重大更新,更是我们迈向更高性能时代的契机。自2022年10月到现在,它一直是游戏玩家和专业设计师的心头好,稳坐性能巅峰的宝座,简直是“独孤求败”啊!嘿,各位电脑界的探索者、游戏里的战神们,注意啦!尽管该计划尚未得到官方正式确认,但多家媒体和供应链消息均指出,这一决定旨在为即将到来的新一代RTX 50系列显卡铺平道路,预示着英伟达GPU产品线的重大更新即将到来。不过,英伟达这招“推陈出新”可是玩得溜,清理库存,为新产品的登场腾出空间,这是行业里的老规矩了。

2024-09-22 13:59:07 334

原创 深度好文:从《黑神话:悟空》看未来游戏趋势:高互动性、个性化与全球化

黑神话:悟空》作为一款集科技与文化于一体的游戏佳作,不仅为玩家带来了前所未有的游戏体验和文化享受;也为未来游戏产业的发展提供了有益的启示和借鉴。我们相信在不久的将来会有更多像《黑神话:悟空》这样的优秀作品涌现出来;它们将利用先进的技术手段深入挖掘和传承传统文化精髓;为全球玩家带来更加丰富多彩的游戏世界和文化盛宴!添加图片注释,不超过 140 字(可选)

2024-08-21 21:55:57 1076

转载 H200 VS H100 GPU ,1 分钟带你了解大模型训练推理的不同

备受瞩目的新一代 AI 芯片——H200 Tensor Core GPU,相较于上一代产品 H100,H200 在性能上实现了近一倍的提升,内存容量翻倍,带宽也显著增加。kyfwq001根据发布的信息来看,H200 Tensor Core GPU 并没有让人感到意外。在 2023 年 8 月 30 日,英伟达就发布了搭载 HBM3e 技术的 GH200 Grace Hopper 的消息,而 HBM3e 也是 H200 芯片的升级重点。

2024-08-09 14:15:28 107

原创 中国AI 走进奥运会:全球瞩目的巴黎奥运会上,中国科技正大放异彩

我们期待着国内的 AI 服务器厂商能够继续加大研发投入,不断提升技术水平,在全球舞台上展现出更强的竞争力,为推动 AI 技术的发展做出更大的贡献。同时,阿里云的 AI 技术增强特效更是向几十亿观众展现了人工智能的神奇,例如通过三维定格动画、慢动作回放等技术,让观众仿佛在观看电影中的“子弹时间”,清晰而富有冲击力。然而,AI 服务器的发展也面临一些挑战。

2024-07-29 16:25:31 1071

转载 《神器!选科研服务器,这篇攻略让你省下90%的时间!》

硬盘方面,推荐使用快速读写的U.2硬盘和大容量的SATA硬盘,以满足临时文件的快速读取和大量数据的长期存储需求。在科研领域,服务器的性能直接关系到数据处理的效率和科研项目的进展。不同的科研方向对数据处理和计算能力的需求各异,因此选择合适的科研服务器至关重要。因此,选择支持多内存通道的处理器,如英特尔至强系列或AMD EPYC系列,并根据CPU的内存通道数进行满通道配置,以获得最佳性能。科研服务器的选择是一个复杂的过程,需要综合考虑科研项目的具体需求、预算以及对品牌和售后的考量。

2024-07-27 00:16:58 164

原创 一键解锁:科研服务器性能匹配秘籍,选择性能精准匹配科研任务和计算需求的服务器

散热和电源设计良好,确保稳定运行👍。涉及深度学习和人工智能,GPU 性能至关重要👏,能加速训练和推理,缩短研究周期🎉。比如,生物信息学的基因序列分析侧重大规模数据处理和并行计算,物理学的粒子模拟可能对浮点运算和内存带宽要求高👨‍🔬。因此,精准匹配科研服务器性能需综合考虑多因素,科学评估分析,结合需求和预算,选到合适服务器,为科研提供有力支持💯。,用专业性能测试工具如 Cinebench 、SPEC CPU 等,可全面测试分析服务器 CPU 性能👍。🙌,了解他们的服务器配置和性能表现,有益自身选择😜。

2024-07-24 19:33:44 493

转载 据最新曝料:RTX 5090D已经准备好了,将会在2025年1月登场

为了能在中国市场上销售,RTX 4090被迫缩水成了RTX 4090D,CUDA核心、Tensor张量核心、RT光追核心、纹理单元从16384个、512个、128个、512个分别减少到14592个、456个、114个、456个,显存则维持21GHz 24GB GDDR6X。根据目前的曝料,RTX 5090预计采用三块PCB设计,GB2020 GPU核心,基础频率就接近2.9GHz,搭配448位宽的28GB GDDR7显存,功耗可能增至500W,采用双插槽、双风扇、双面吹透的全新散热器。

2024-07-17 18:05:51 931

原创 英伟达中国特供芯片降价背后:巨头与市场的较量

首先,中国拥有强大的本土芯片制造商,如昆仑万维等公司,这些公司也在不断推出自己的高性能计算和人工智能计算解决方案,这在一定程度上挤压了英伟达等国际品牌的发展空间。一方面,他们需要在保持中国市场的同时,应对美国的出口管制政策,这使得他们的业务面临极大的不确定性。在这个竞争激烈的市场中,英伟达需要找到一种平衡,既要保持其在全球市场的领先地位,又要适应中国市场的特殊需求。综合来看,英伟达H100芯片在中国市场的销量不佳,可能是因为中国本土厂商的崛起、政策环境的变化以及市场竞争的加剧等多种因素共同作用的结果。

2024-06-20 19:45:15 915

转载 AlphaFold 3强势登场,施一公、颜宁:敬畏AI,但人类进步还要靠科学家

但终归也只是时间问题。DeepMind介绍,AlphaFold 3是一个重要的模型里程碑,能以前所未有的精度预测所有生命分子的结构和相互作用,为科学家们提供了一个强大的工具,以更精确地理解疾病机制并开发新的治疗药物。据悉,与现有预测方法相比,AlphaFold 3的改进至少达到了50%,对于一些重要的相互作用领域,其预测精度提高了一倍(100%)。“依我之见,AlphaFold是人工智能对科学领域最大的一次贡献,也是人类在 21 世纪取得的最重要的科学突破之一”,谈及AlphaFold,施一公曾这样评价。

2024-05-14 09:16:55 120

原创 AlphaFold 3:开启生物医药新革命

它使科学家能够看到细胞系统的所有复杂性,包括结构、相互作用和修饰。DeepMind团队还推出了AlphaFold Server,这是一个免费的、用户友好的非商业研究平台,世界各地的科学家都可以利用这个平台,借助AlphaFold 3的力量来模拟由蛋白质、DNA、RNA以及多种配体、离子和化学修饰组成的结构。AlphaFold不仅可以提供可靠的蛋白质或复合物的三维结构信息,而且在最近的CASP13评估中,AlphaFold为43个自由建模域中的24个创建了高精度结构,显示出其在蛋白质结构预测领域的领先地位。

2024-05-13 21:41:26 749

转载 2024年度国家自然科学基金项目申请初审结果的通告公布

根据此规定,参与者确为讲师的情况下,该名老师“主持一项参与2项没有超项”的判断似乎是正确的,可以根据国自然基金委的要求——“如对不予受理决定有异议,可在2024年5月17日16时前向相关项目管理部门提出复审申请。整体来看,提高申请文件的准确性和完整性,以及确保申请者符合资助资格,是减少项目申请不予受理情况的关键。目前从结果上说,这位误将“副教授”记录为“讲师”参与项目的老师,邀请“副教授”参与项目的另一名老师,以及该名副教授,三位老师的本子全都因为“违反限项规定”被基金委纳入不予受理的申请项目。

2024-05-10 09:54:54 174

转载 如何制造出比英伟达更好的GPU?

前代CoWoS-R的硅中介层受限于大约两个掩模单元——这正好是Nvidia上周刚刚发布的“Blackwell”B100和B200 GPU的大小,但那个GPU封装使用的是更现代、更不占地方的CoWoS-L技术,该技术制造起来更复杂,就像其他方法中使用的嵌入式桥接。此外,通过移除GPU等设备中的硅中介层或等效物,并转向有机基板,使用更厚的凸点并隔开组件,你可以将带有十几个HBM堆栈的双ASIC设备的制造成本从大约12000美元降低到约6800美元,而芯片加封装的产量从50%提高到87%。

2024-04-24 20:30:52 107

原创 【深度解析】企业服务器选择:通用型与定制化,哪个更适合你?

在定制化服务器的选择上,原厂家生产的产品通常能提供更高的品质和更好的服务,是追求高性能和稳定性的企业的理想选择。在这个信息化飞速发展的时代,选择正确的服务器,就是为企业的未来发展打下坚实的基础。同时,也建议企业在选择服务器时,咨询专业的IT顾问,以获得更专业的建议和服务。在定制化服务器的选择上,原厂家生产的服务器以其严格的生产测试流程和完善的售后服务体系,为用户提供了更强的品质保障和技术能力。当企业面临科学计算、大数据分析等高端应用需求时,定制型服务器以其灵活的配置和卓越的性能,成为了不二之选。

2024-04-24 10:07:08 753

转载 高性能GPU服务器AI网络架构(下篇)

对于采用NVLink3技术、每条通道带宽为50GB/s的A100 GPU,在全互联结构中,每条线路的总带宽为12 * 50GB/s = 600GB/s。需要注意的是,此带宽是双向的,既支持数据发送也支持接收,因此单向带宽为300GB/s。因此,在全互联结构中,每条线路的总带宽变为8 * 50GB/s = 400GB/s,单向带宽为200GB/s。同一主机内GPU与其各自网络接口卡(NIC)之间的通信:采用PCIe Gen4交换芯片,双向带宽为64GB/s,单向带宽为32GB/s。

2024-04-11 11:02:18 389

转载 2024生信计算100+ 数据库:涉及蛋白、代谢、GWAS、动植物、病毒、细菌...

以上内容来自生信益站。

2024-04-11 09:58:14 120

转载 高性能GPU服务器AI网络架构(上篇)

例如,在探讨H100时所展现的设计,GPU直接与其搭载的HBM内存相连,无需再经过PCIe交换芯片,从而极大地提高了数据传输速度,理论上可实现显著的数量级性能提升。而在诸如PCIe、内存、NVLink及HBM等其他硬件组件中,带宽指标则通常使用每秒字节数(Byte/s)或每秒事务数(T/s)来衡量,并且这些测量值一般代表双向总的带宽容量,涵盖了上行和下行两个方向的数据流。因此,在比较评估不同组件之间的带宽时,准确识别并转换相应的带宽单位至关重要,这有助于我们全面理解影响大规模GPU训练性能的数据传输能力。

2024-04-07 11:55:49 443

原创 大模型训练推理如何选择GPU?一篇文章带你走出困惑(附模型大小GPU推荐图)

对于预算有限的用户,可以选择性价比较高的V100 32G或A800/H800等型号的GPU。它采用了先进的Ampere微架构,具备强大的浮点运算能力和高效的内存带宽,能够满足大模型训练推理的高计算需求。此外,还需要考虑GPU的散热性能,以确保在高负载运行时能够保持稳定的温度。这类配置不仅能够满足大规模模型的训练需求,还能提供优秀的推理性能,为用户带来流畅的使用体验。服务器,入围政采平台,H100、A100、H800、A800、L40、L40S、RTX6000 Ada,RTX A6000,

2024-04-03 16:39:37 2555

转载 A100/H100/GH200集群:网络架构及光模块需求

由于NVLink 4.0对应互联带宽双向聚合是900GB/s,单向为450GB/s,则256卡的集群中,接入层总上行带宽为115200GB/s,考虑胖树架构以及800G光模块传输速率(100GB/s),800G光模块总需求为2304块。RSC项目第二阶段,Meta总计部署2000台A100服务器,包含16000张A100 GPU,集群共包含2000台交换机、48000条链路,对应三层CLOS网络架构,若采用全光网络,对应9.6万个200G光模块,即A100:光模块=1:6,与前文测算的A100架构相同。

2024-03-21 16:51:12 1138

转载 紧跟“智算中心”这波大行情!人工智能引领算力基建革命!

2024-03-21 14:40:47 80

转载 Nvidia B100/B200/GB200 关键技术解读

B200 GPU的晶体管数量是现有H100的两倍多,但B200封装了2080亿个晶体管(而H100/H200上为800亿个)。这意味着B200芯片封装密度比H100进一步提高,对管理散热和功耗也提出了更高的要求。引入一种新的计算精度,位宽比FP8进一步降低,B200峰值算力达18P。位宽介于FP4和FP8之间。B200有两个Die,高速连接通道NV-HBI达到10TB/s。两个Die是一个统一的Cuda GPU。NV-HBI会占用一定的芯片面积。

2024-03-20 13:50:04 2687

转载 AI核弹B200发布:超级GPU新架构30倍H100单机可训15个GPT-4模型,AI进入新摩尔时代

30 倍 AI 算力是如何做到的?现在,英伟达的 NVLink Switch Chip 可以让所有这些芯片互联起来,全速运转没有瓶颈(1.8TB/s,几乎比上代快 10 倍),并帮助构建了 DGX GB200 NVL72。,GR00T 驱动的人形机器人能够接受文本、语音、视频甚至现场演示的输入,并对其进行处理以采取特定的操作,包括理解自然语言、模拟人类行为、在现实世界中导航和交互。就比如英伟达的「大客户」OpenAI,一直在使用自己的 AI 模型来为一家名为 Figure 的初创公司的人形机器人提供支持。

2024-03-20 08:42:47 142

转载 HBM、HBM2、HBM3和HBM3e技术对比

三大存储原厂主要承担DRAMDie的生产及堆叠,展开技术升级竞赛,其中SK海力士与AMD合作发布全球首款HBM,23年率先供应新一代HBM3E,先发奠定市场地位,主要供应英伟达,三星供应其他云端厂商,根据TrendForce数据,2022年SK海力士市占率50%、三星市占率40%、美光市占率10%左右,2023年SK海力士市占率预计为53%,三星市占率38%、美光市占率9%。,作为GDDR竞品,为4层die堆叠,提供128GB/s带宽,4GB内存,显著优于同期GDDR5。以上内容来自智能计算芯世界。

2024-03-01 15:26:08 1547

转载 一场AI“革命”开始,OpenAI文生视频模型Sora

不同于此前许多AI大模型文生图或视频时,会出现人物形象前后不一致等问题,此次OpenAI展示的Sora生成的视频中的主角、背景人物,都展现了极强的一致性,可以支持60秒一镜到底,并包含高细致背景、多角度镜头,以及富有情感的多个角色,可谓是相当的“炸裂”。可以说,目前的Sora已经拥有了足以改变视频广告行业的能力,如果持续迭代,并在保持稳定性和一致性的前提下,进一步支持更复杂的交互、更长的视频时长,并加入更为丰富的AI视频编辑功能,必将对于现有的影视制作产业带来革命。Sora还能模拟人工过程,如视频游戏。

2024-02-20 15:31:42 185

转载 2024年最新:一文看懂英伟达显卡B100、H200、L40S、A100、A800、H100、H800、V100如何选择,附架构技术和性能对比

Ampere 架构的 GPU 采用了多个[流多处理器](SM)和更大的总线宽度,提供了更多的 CUDA Core 和更高的频率。而受到影响较大的还是 NVlink 上的削减,但是因为架构上的升级,虽然比不上同为 Hopper 架构的 H100,但是比 ampere 架构的 A800 还是要强上不少的。NVIDIA 通常用最小的运算单元表示自己的运算能力,CUDA Core 指的是一个执行基础运算的处理元件,我们所说的 CUDA Core 数量,通常对应的是 FP32 计算单元的数量。

2024-02-03 17:15:45 1721

转载 数据中心:CPU空间巨大,国内厂商份额却极低

主频是 CPU 的时钟频率,即 CPU 的工作频率,一般来说,一个时钟周期完成的指令数是固定的,所以主频越高,CPU单位时间运行的指令数越多。外频即CPU和周边传输数据的频率,具体是指 CPU 到芯片组之间的总线速度,CPU 的外频决定着整块主板的运行速度。CPU 的生产需要经过硅提纯、切割晶圆、影印、蚀刻、分层、封装、测试 7个工序,制程工艺的提升或更小的制程对于 CPU 性能的提升影响明显,主要表现为 CPU 频率提升以及架构优化两个方面。以上内容来自智能计算芯世界。

2024-01-25 12:18:22 131

转载 互联:高性能计算的“革命之路”

NVLink Switch(NVS)则是基于NVLink的互联网络的组成部分,可以实现多个服务器中的GPU直联,NVS不但绕开了服务器内PCIe互联,还绕开了服务器间的以太网通讯,使得跨服务器的GPU通讯路径从原来的6步省略到2步,极大的降低了GPU通讯延迟,从而增强AI大模型计算中数据同步的效率,为AI大模型的计算提供了跨服务器集群解决方案。与此同时,专用的互联芯粒技术也在崛起。同时,集成die-to-die 3D接口,Cache等模块,以实现更高效的垂直互联,最大程度的减少存储本身带来的延迟和功耗。

2024-01-25 10:42:25 279

转载 2024年了,国产GPU,可堪大用吗?

作为计算机的图形处理以及并行计算内核,GPU最基本的功能是图形显示和分担CPU的计算量,主要可以分为图形图像渲染计算 GPU和运算协作处理器 GPGPU(通用计算图形处理器),后者去掉或减弱GPU的图形显示能力,将其余部分全部投入通用计算,实现处理人工智能、专业计算等加速应用。上述负责人认为,国产GPU业应采取开放合作的心态,学会站在巨人的肩膀上,善于利用现有架构和生态,设计契合市场需求的优秀产品,打造全球化设计水平的开发团队。在他看来,国产GPU在起步阶段兼容现有生态更容易发展,先求生存;

2024-01-13 18:31:40 500

转载 英伟达 vs. 华为海思:GPU性能一览

NVIDIA NVLink采用全网状拓扑,如下所示,(双向)GPU-to-GPU 最大带宽可达到400GB/s (需要注意的是,下方展示的是8*A100模块时的600GB/s速率,8*A800也是类似的全网状拓扑);本文转自SDNLAB,编译自arthurchiao的博客,主要介绍了英伟达和华为/海思主流 GPU 的型号性能,供个人参考使用,文中使用数据均源自官网。以上内容来自架构师联盟。

2023-12-31 17:11:21 3503

转载 重磅!英伟达正式发布GeForce RTX 4090D,你想知道的都在这里

据英伟达官方公布的评测数据显示,在启用DLSS和光线追踪模式下,在游戏《巫师3:狂猎》中,GeForce RTX 4090D的性能约为GeForce RTX 3090 Ti的2.2倍,在游戏《心灵杀手2》中,约为3.5倍,在游戏《瑞奇与叮当:时空跳转》和《蜘蛛侠:迈尔斯莫拉莱斯》中,约为1.9倍。对此英伟达方面提供了一些GeForce RTX 4090D对比数据,但是,所参考对比的型号并非GeForce RTX 4090,而是上一代的GeForce RTX 3090 Ti。

2023-12-30 19:37:14 327

转载 2023年服务器计算机CPU行业报告

纵向对比看,同样以龙芯为例,其第二代产品3A2000在没有提升主频的前提下,通过设计能力的改进,性能提升了2.5倍;以龙芯中科招股说明书中公布的2021年中国CPU设计企业各上市公司毛利率为例,最大值为景嘉微的63.24%,最小值为北京君正的36.10%,最大值和最小值之间的差距超过27个百分点,而中值为46.72%。,中国芯片国产化率低,在2020年该指标仅为16%,且主要集中在28nm级别以上的中低端芯片,高端芯片的渗透率低,14nm/16nm级别以下的芯片大多由台积电、AMSL等境外厂商代工。

2023-12-30 18:39:01 383

转载 常用生信软件汇总(附部分高校生物信息学中心)

以上内容来自 CSDN博主「wangchuang2017」部分中国高校生物信息学中心。

2023-12-28 18:34:51 1198

转载 内网穿透详解

阅读本文前需要先搞懂NAT、PAT、端口映射几个概念,前面我有写了一篇关于这几个概念的博文。根据之前的博文我们已经知道,内网宽带中的主机可以访问公网宽带主机,反之不可以访问;公网宽带主机可以和公网宽带主机双向访问;内网宽带中的主机和内网宽带中的主机互相无法访问。那么内网宽带中的客户机和公网宽带中的客户机如何访问另一个内网宽带中的服务器呢?这里就需要用到内网穿透技术。

2023-12-28 18:28:39 209

转载 李航:对 LLM语言大模型的若干观察和思考

这一点与其他的机器学习有本质的不同。其基本想法是,先训练一个基于 Transformer 的大规模语言模型,在其基础上通过有监督的微调 SFT 方法,学习序列到序列模型,把自然语言的理解和生成任务都转化为序列到序列生成的任务,在一个模型上实现所有的任务,包括生成式对话。而大规模语言模型,由于学习手段和规模,其生成的自然语言所描述的内容,在现实中是很容易发生的,甚至是合理的,幻觉现象也得到比较有效的控制。心智(mind)是我们每个人体验的内心的感知和认知,既有意识的部分又有下意识的部分,主要是意识层面的。

2023-10-23 16:19:46 108

转载 星闪的 “ 遥遥领先 ”

不仅能利用现有数据,还可以通过对环境的探索获得新数据,并利用新数据循环往复地更新迭代现有模型的机器学习算法。在传输速率上,星闪是碾压蓝牙的,至于更快的 WiFi 6 和 7,现在的普及率又有多少呢?并且两者独立发展了几十年,在各自的道路上渐行渐远,消费者们曾经期盼的 “ 蓝牙-WiFi ” 互联终究没有到来。而某些大厂私有蓝牙能达到 15 毫秒的延迟,Wi-Fi 目前的延迟最低为 10 毫秒。而目前最新的蓝牙最大连接数是 8 台,Wi-Fi7 是 256 台。但是星闪的领先是 “ 革命性 ” 的。

2023-09-28 10:09:42 376

转载 比黄金更贵的显卡,疯狂H100

华尔街和硅谷联袂奉上了一件震撼业界的大事:让一家创业公司拿到23亿美元的债务融资,抵押物则是当前全球最硬的通货——。这个大事件的主角叫做CoreWeave,主营业务是AI私有云服务,简单说就是通过搭建拥有大量GPU算力的数据中心,来给AI创业公司和大型商业客户提供算力基础设施。CoreWeave累计融资5.8亿美金,目前是B轮,估值20亿美元。CoreWeave成立于2016年,创始人是三个华尔街大宗商品交易员。刚开始公司的主营业务只有一个:挖矿,采购大量GPU来组建矿机中心,

2023-09-08 10:02:30 341

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除