Tranformer架构的劲敌,RWKV-6-World-14B最强稠密纯RNN模型开源

Tranformer架构的劲敌,RWKV-6-World-14B最强稠密纯RNN模型开源

始智AI wisemodel  2024年07月21日 17:30 北京

始智AI wisemodel.cn开源社区

始智AI wisemodel.cn社区将打造成huggingface之外最活跃的中立开放的AI开源社区。欢迎《加入wisemodel社区志愿者团队》以及《欢迎加入wisemodel开源共创计划》。wisemodel社区上升级了体验空间,任何人都可以上wisemodel部署模型在线体验,并全面支持ollama在线运行

图片

2024年7月19日,RWKV 开源基金会宣布正式向全球开源 RWKV-6-World 14B 模型,大家可以前往始智AI wisemodel.cn开源社区了解。RWKV-6-World 14B 是迄今最强的稠密纯 RNN 大语言模型。

图片

https://wisemodel.cn/models/rwkv4fun/Rwkv-6-world(模型地址)

在最新的性能测试中, RWKV-6-World 14B 模型英文性能相当于 Llama2 13b。此外,在同参数的模型评测中,RWKV-6-World 14B 的多语言性能显著最强,且支持全球100+种语言和代码。

在“无法作弊的模型评测” Uncheatable Eval 排行榜中,RWKV-6-World 14B 的综合评测分数比 llama2 13B 和 Qwen1.5 14B 更强。

01

评测结果

本次模型基准测试涵盖了 4 款接近 14B 参数规模的开源大语言模型。

在测试中,英语的性能测试将通过 12 个独立的基准测试来衡量大模型在常识推理和世界知识等英语内容上的表现。

多语言能力的评估中,则采用了 xLAMBDA、xStoryCloze、 xWinograd 和 xCopa 四种基准测试,深度探索了评估模型在多语言环境中的逻辑推理、故事理解、歧义解决和因果推理能力。

图片

14B 开源模型的测试结果

由于 RWKV-5 系列模型最大只有 7B 参数,选择 RWKV-4 14B 模型作为纵向对比。

可以看到,相比于此前发布的 RWKV-4 14B 模型,RWKV-6-World 14B 的英文性能和多语言性能都获得巨大提升。

不作弊的 RWKV 模型

值得强调的是,在训练 RWKV 模型时,并未加入任何基准测试的数据集。换言之,没有为了获取更佳的评分结果而进行特殊优化。

RWKV 不刷榜也不刷星,因此 RWKV 模型的实际能力比它的各种评分排行更强。

既然承诺不作弊,也对 RWKV-6-World-14B 模型进行了  “无法作弊的模型评测” ——Uncheatable Eval。

Uncheatable Eval 会使用最新的 arXiv 论文、新闻文章、小说数据和 GitHub 代码等实时语料库,以此来评估语言模型的真实建模能力和泛化能力。

RWKV-6-World 14B 的 Uncheatable Eval 评测

此次 Uncheatable Eval 评测选取了常见的 5 款开源 14B 参数模型,测评数据则选择 7 月最新发布的 arXiv 论文、新闻、ao3 小说和 GitHub 代码等实时数据。

具体评分和综合排名如下:

图片

14B 模型 Uncheatable Eval 评测

可以看到,RWKV-6-World 14B 在此次测试中排行第 2,综合评测分数比相同尺寸的 llama2 和 Qwen1.5 更强。

而 Mistral 最新发布的 12B 模型使用了比 RWKV-6 多几倍的数据,它的性能更强。后续将会继续为 RWKV 模型补充优质数据,与它看齐。

02

模型下载和体验

目前 RWKV-6-World 14B 模型还没有在线 Demo,可以从HF、wisemodel和modelscope等平台下载 RWKV-6-World 14B 模型并本地部署

由于 A100/A800 只支持 safetensor(.st)格式的模型,如果你打算使用 A100 体验 RWKV-6-World 14B 模型 ,可以在HF 仓库中下载已经转成 .st 格式的模型。

本地部署显存需求

如果你计划本地部署并推理 RWKV-6-World 14B 模型,参考的 VRAM (显存)消耗如下:

量化方式              显存参考

fp16                      约 28G    

int8 -量化 56 层    约 15G    

nf4 - 量化 56 层    约 10G    

新模型效果预览

以下为 RWKV-6-World 14B 模型的实测效果:

以下案例使用 A100作为推理服务器,int8 + 30 层量化,未加载任何 State

自然语言处理(情感分析)

图片

自然语言处理(机器阅读理解)

图片

散文诗文学创作

图片

阅读并修改一段代码

图片

金融学论文选题建议

图片

提取新闻关键内容

图片

一句话扩写文本

图片

python 贪吃蛇小游戏

图片

注意:目前开源发布的所有 RWKV 模型均为基底模型。

基底模型具备一定的指令和 对话能力,但为了保持其通用性和泛化能力,基底模型未进行任何对齐,也未针对某一类任务做优化。因此,基底模型在特定任务上的表现并不代表 RWKV 模型最优水准。

供稿:RWKV团队

编辑:赵雅鑫

-----    END   -----

wisemodel相关

1、始智AI-wisemodel社区正式上线,目标打造中国版“HuggingFace”

2、始智AI wisemodel.cn社区,努力建成中国最活跃的AI开源社区

3、Sora热背后的冷思考,发起复现Sora计划

4、招募 | 开源共创计划-参与wisemodel-SDK/API及Sora复现计划等项目

系统升级

5、公告 | 升级完成,新功能上线,欢迎体验!

6、升级 | wisemodel上线新版在线体验,开源大模型人人可玩!

7、升级 | wisemodel社区全面支持ollama,gguf格式大模型直接在线运行!

系列模型:

8、CogVLM2-Video视频理解模型开源,准确掌握时间定位

9、腾讯开源「AniPortrait」让照片唱歌说话

10、格灵深瞳开源RWKV-CLIP模型,强大的视觉语言表征学习器

11、复旦大学团队发布Hallo多模态模型,首个音频驱动的人脸视频生成模型

12、首个开源、原生多模态生成大模型:变色龙Anole一键生成 「煎鸡蛋」图文菜谱

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

强化学习曾小健

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值