RWKV的在线体验网址出来啦!作者亲自教学,效果超棒!

深度学习自然语言处理 分享

作者:PENG Bo

感谢关注,下面是RWKV的在线体验网址(在线是单轮。多轮可以自己部署,效果也很好):

问答,英文14B:ChatRWKV - a Hugging Face Space by BlinkDL[1]b34bbf0576ac47b9619bd81e4505a696.png

问答,英文7B:Raven RWKV 7B - a Hugging Face Space by BlinkDL[2]62c247e77f6dad75a438f0126daa3826.png

问答,中文7B:RWKV-4-Raven-7B[3]3f7e035fdc513469b9a5ef050469616e.png

中文请用中文模型,英文请用英文模型。目前英文模型强很多,因为目前中文模型是从英文模型+少量中文语料微调的。正在炼真正的多语言基底模型。

英文14B的效果例子,输入公式(TeX),输出代码:

1b79cb2942f1d42f3dcd843cee084539.png

中文小说续写,均衡文风:ModelScope 魔搭社区[4]1aa006398dd0ea9322365090ab088239.png

中文小说续写,小白文风:ModelScope 魔搭社区[5]c5021749ea6018700a69e8aab6960755.png

中文小说续写,专业文风:ModelScope 魔搭社区[6]7f8191a230aab85bf3a2243546874b2e.png

本地部署:

请先体验 ChatRWKV,因为目前大多数第三方实现有性能和速度的 bug。例如 HF rwkv package 仍有 bug。使用请设置正确 strategy,并编译 CUDA 算子,这对于运行速度极其重要。

教程:发布几个RWKV的Chat模型(包括英文和中文)7B/14B欢迎大家玩[7]

下面两个懒人包可能有小bug,不过已有很多用户,所以没有大bug:

懒人包1:RWKV-Runner发布并开源,可商用的大语言模型,一键启动管理,2-32G显存适配,API兼容,一切前端皆可用[8]

懒人包2:ChatRWKV教程与工具[9]

请务必用最新和正确的模型。例如Raven是v某某,某某越大越新。注意语言比例需要正确,例如中文模型是Chn49%。

后续欢迎大家来玩的:

  1. 可解释性,可视化。由于RWKV作为RNN有明确的固定大小state,可以做许多transformer做不到的事情。例如,我们可以直接分析理解和操纵RWKV的状态,还可以直接做高效P-tuning。60567d3ce7f76bccce8dad8042e9f892.png

  2. 多模态。state是优质的嵌入(注意区分 x a b p)。

  3. 量化,稀疏,端侧高速运行。

  4. 插件,向量数据库,检索增强,AutoGPT等等。

另外大家记得看论文附录,例如这些都在附录:

1d8343d84843e310354e971e98eb2e59.png

知乎:PENG Bo
链接:https://www.zhihu.com/question/602564718/answer/3042600470

分享

收藏

点赞

在看

c795676d9e9c4f43c01572839d874158.gif

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值