AMD-OLMo:在 AMD Instinct MI250 GPU 上训练的新一代大型语言模型。

在这里插入图片描述
AMD-OLMo是一系列10亿参数语言模型,由AMD公司在AMD Instinct MI250 GPU上进行训练,AMD Instinct MI250 GPU是一个功能强大的图形处理器集群,它利用了OLMo这一公司开发的尖端语言模型。AMD 创建 OLMo 是为了突出其 Instinct GPU 在运行 “具有数万亿标记的大规模多节点 LM 训练工作 ”方面的能力,与其他完全开放的类似规模的 LM 相比,OLMo 可实现更高的推理和指令跟踪性能。

在这里插入图片描述

OLMo 是最先进的开源软件,但其参数数量少于 AI2(前身为艾伦人工智能研究所)开发的同类软件。AMD 的版本有 10 亿个参数,而 AI2 的 OLMo 有 70 亿个参数。尽管在规模上存在差异,但 AMD 的 OLMo 已经在 1.3 万亿个令牌的海量数据集上进行了训练,这些数据集在 16 个节点上进行了预训练,每个节点都配备了四个 AMD Instinct MI250 GPU。通过这种训练,AMD-OLMo 开发出了令人印象深刻的语言能力,包括预测句子中下一个单词的能力,使其适用于聊天机器人等应用。

AMD 的 OLMo 已与其他公开的型号进行了比较,其性能令人印象深刻。例如,它已被证明优于其他指令调整基线。该公司认为,OLMo 的发布将有助于开发人员复制其工作,并在 “顶端 ”进一步创新。此外,AMD-OLMo 还有望推广该公司的处理器,展示其强大功能,并在与 Nvidia 和英特尔等竞争对手的竞争中提升其声誉。

OLMo 的发布是 AMD 努力让人工智能(AI)更接近边缘设备的一部分。近年来,该公司已经推出了多项人工智能创新技术,包括发布注入人工智能的 Ryzen、Instinct 和 Epyc 芯片。AMD 的 OLMo 模型可在 Hugging Face 上获得,开发人员可以访问该模型的数据、权重、训练配方和代码,以重现其工作并在此基础上进行开发。

预训练结果

Standard BenchmarksTinyLLaMA-v1.1 (1.1B)MobiLLaMA-1B (1.2B)OLMo-1B (1.2B)OpenELM-1_1B (1.1B)OLMo-1B-0724-hf (1.2B)AMD-OLMo-1B (1.2B)
arc_easy55.4756.6557.2855.4356.6563.64
arc_challenge32.6832.0031.0632.3432.3433.70
hellaswag61.4761.8062.9264.8166.1263.61
piqa73.5675.3075.1475.5775.0875.57
boolq55.9960.8361.7463.5866.1860.58
sciq89.3088.2087.0090.6092.7093.20
winogrande59.4359.2759.9861.7261.7261.64
openbookqa36.8035.4036.2036.2035.6035.80
mmlu (0-shot)25.0224.8124.2325.2625.4524.88
gsm8k (8-shot)1.820.002.502.818.952.88
bbh (3-shot)25.630.0025.6316.7721.6720.95
Average47.0244.9347.6147.7349.3148.77

指令调整结果

Standard BenchmarksTinyLlama-1.1B-Chat-v1.0 (1.1B)MobiLlama-1B-Chat (1.2B)OpenELM-1_1B-Instruct (1.1B)AMD-OLMo-1B-SFT (1.2B)AMD-OLMo-1B-SFT-DPO (1.2B)
arc_easy54.4257.4152.4463.6864.31
arc_challenge32.8534.5637.8037.1237.37
hellaswag60.4062.5171.2961.6361.91
piqa74.4875.7375.0374.4374.16
boolq61.0455.6670.2868.5370.24
sciq88.4087.1089.5091.2092.10
winogrande60.5460.7762.1960.2260.62
openbookqa37.2036.8039.2037.4040.20
mmlu24.6125.2525.5429.9730.52
gsm8k (8-shot)2.810.231.8218.2015.77
bbh (3-shot)26.830.0013.4025.1725.45
Average47.6045.0948.9551.6052.06
Chat BenchmarksTinyLlama-1.1B-Chat-v1.0 (1.1B)MobiLlama-1B-Chat (1.2B)OpenELM-1_1B-Instruct (1.1B)AMD-OLMo-1B-SFT (1.2B)AMD-OLMo-1B-SFT-DPO (1.2B)
AlpacaEval 1 (Win Rate)50.8134.9037.7250.1254.22
AlpacaEval 2 (LC Win Rate)1.541.590.493.882.37
MTBench3.382.89-4.354.10
Responsible AI BenchmarksTinyLlama-1.1B-Chat-v1.0 (1.1B)MobiLlama-1B-Chat (1.2B)OpenELM-1_1B-Instruct (1.1B)AMD-OLMo-1B-SFT (1.2B)AMD-OLMo-1B-SFT-DPO (1.2B)
ToxiGen41.7037.2342.3439.0439.68
crows_pairs60.3558.5059.9360.2961.00
TruthfulQA-mc237.9238.4645.8437.4540.06
  • 在为聊天基准评估生成标记时,我们在 AlpacaEval 中使用 max_length=2048,在 MTBench 中使用 max_new_tokens=2048。
  • 上表中的所有数字均来自我们的评估。

这次发布对 AMD 来说是意义重大的一步,因为它不仅彰显了 AMD 硬件在人工智能领域的实力,而且还使 AMD 在快速发展的人工智能芯片市场上与 Nvidia 和英特尔等行业领导者一较高下。通过在 Hugging Face 上提供模型,AMD 鼓励开发人员在其工作基础上进行实验和开发,从而有可能推动语言建模和人工智能应用的进一步发展。

Huggingface:amd/AMD-OLMo

感谢大家花时间阅读我的文章,你们的支持是我不断前进的动力。点赞并关注,获取最新科技动态,不落伍!🤗🤗🤗

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值